July 27, 2021

«Теперь, когда дело касается достижений в области искусственного интеллекта, мнение философов имеет значение»

Мартин Гиберт – философ и исследователь из Монреальского университета, связанного с Центром исследований этики и Институтом оценки данных. В 2015 году он применил классические моральные теории к веганству в Смотри на свой стейк, как на мертвое животное (Редактор Lux). Он только что сделал то же самое в более искусственной области роботов, машин и других алгоритмов, в Мораль для роботов (Фламмарион, 168 стр., 17 €).

Почему философ имеет дело с устройствами искусственного интеллекта (ИИ), такими как беспилотные автомобили, чат-боты или системы онлайн-рекомендаций?

Момент действительно волнующий для философа, потому что мы можем задавать себе вопросы об этих новых и очень фундаментальных устройствах. И, кроме того, очень конкретный, с немедленными и срочными приложениями. Возьмите знаменитый случай дилеммы трамвая, изложенный Филиппы Фут в 1967 году: активируется ли переключатель, чтобы предотвратить столкновение транспортного средства с пятью рабочими, если на другом пути находится только один человек? Следует сказать, что до недавних достижений в области искусственного интеллекта философы думали над ответами, но их ответы не имели никакого значения. Теперь их мнение имеет значение. Мы должны сказать кое-что программистам, чьи алгоритмы сделают фатальный выбор! ИИ заставляет нас принимать решения о том, что правильно, а что неправильно, и это уже не просто мысленный эксперимент.

Читайте также Жуткая дилемма беспилотных автомобилей

Это то, что вы называете алгоритмами чтения лекций?

Чтобы ясно видеть, что делать, необходимо организовать несколько разных областей прикладной этики. В порядке общности, у нас есть прежде всего этика техники, в которую мы вложим и отвертки, и атомные электростанции. На втором уровне этика ИИ поднимает такие вопросы, как влияние этих систем на общество или окружающую среду или даже на возможные права роботов. Интересующая меня в книге этика алгоритмов находится на третьем, более конкретном уровне. Как запрограммировать машину, алгоритм, искусственного морального агента, чтобы они вели себя «хорошо» ? Это заставляет вдаваться в подробности и, конечно же, не мешает задаться вопросом о высшем эшелоне: действительно ли нам нужен тот или иной робот в совокупности?

Статья зарезервирована для наших подписчиков Читайте также «Обеспокоенность по поводу этики алгоритмов следует воспринимать очень серьезно»

Тем интереснее и нужнее, что алгоритмы влияют на жизнь людей. В случае с автономным автомобилем, стоящим перед дилеммой трамвая, это очевидно, но такие решения будут приниматься очень редко. С другой стороны, алгоритм рекомендаций YouTube или Facebook может иметь серьезные последствия для потока информации. Чем больше мы развиваем новых способностей, тем больше у нас моральной ответственности. Даже за чат-ботом существуют серьезные моральные проблемы.

Вам нужно прочитать 67,49% этой статьи. Остальное только для подписчиков.

нажмите здесь