Регулирование ИИ недостаточно. Нам нужны морали ИИ

Нужно ли нам это делать вообще?

После 40 лет цифровой трансформации стало очевидно, что мы продолжаем создавать вредоносные системы, потому что рассматриваем моральные вопросы как технические проблемы и исключаем голоса тех, кто мог бы сказать нам остановиться.

Моральный вопрос, которого мы избегаем

Недавняя статья в Time утверждает, что регулирование ИИ недостаточно, и нам нужны моральные установки для ИИ. Авторы пишут: «Проблема нашего времени заключается в том, чтобы сохранить моральный интеллект на уровне машинного интеллекта.» Можно утверждать, что моральный интеллект пропускается уже десятилетия, так как этически подходить к технологиям считается неудобным, замедляющим инновации.

Как мы продолжаем строить системы

На совещаниях по проектам в государственных учреждениях поднимаются вопросы о уязвимых пользователях, о потерях рабочих мест и последствиях, о которых никто не задумывался. Но вместо того, чтобы обсуждать эти проблемы, их откладывают на будущее, обозначая такими фразами, как «давайте отложим это на сейчас».

Почему технологи не могут отвечать на моральные вопросы

Технологи часто описывают этику в вычислительных терминах: согласование, слои безопасности и обратные связи. Но мораль нельзя оптимизировать или улучшать; она требует понимания последствий до создания системы, а не после того, как вред уже нанесен.

Ловушка эффективности

Достоинство человека предполагает, что его ценность является внутренней, а не измеряется в данных или экономических результатах. Это именно то, что теряется, когда мы рассматриваем моральные вопросы как технические проблемы.

  • Эффективность не является моральным принципом.
  • Выбор между эффективностью и доступом, между финансовой устойчивостью и человеческими нуждами — это моральные выборы, которые подменяются техническими аргументами.

Что происходит, когда мы не задаем вопросы

Когда системы не предугадывают жизненные переходы пользователей, они наказывают людей за то, что они испытывают эти изменения. Это не случайность — это результат решений, принятых теми, кто никогда не спрашивал, должны ли мы делать услуги, зависимые от цифрового доступа.

Голоса, которые мы исключаем

Все больше людей, принимающих решения о внедрении ИИ, не являются теми, кто понесет последствия своих решений. Когда государственные служащие теряют работу из-за чрезмерных трат на ИИ, они не были в комнате, когда министры решили сделать ставку на недозрелую технологию.

Моральный компас, который нам нужен

Нам нужен моральный компас, способный направлять разработки ИИ и любые технологические решения, влияющие на общественные услуги. Этот компас должен задавать вопросы:

  • Кто получает пользу от этого?
  • Кто платит цену?
  • Не путаем ли мы то, что можем сделать, с тем, что мы должны сделать?
  • Включаем ли мы голоса тех, кто будет наиболее затронут?
  • Готовы ли мы остановиться, если ответы на эти вопросы неприемлемы?

Эти вопросы не требуют технической экспертизы. Они требуют моральной мужества.

Заключение

Импульс к продолжению проектов часто поощряется без должного рассмотрения моральных последствий. Мы должны быть готовы сказать «нет», когда что-то кажется неправильным. Это ответственность всех, кто принимает решения о влиянии технологий на общество.




Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching