Искусственный интеллект и утрата человеческого отношения: почему автоматизация не должна заменять общение

В нескольких словах

Автор анализирует, как автоматизация и искусственный интеллект, прикрываясь эффективностью, усугубляют социальное неравенство и лишают людей права на индивидуальное, человеческое отношение, превращая их в «номера» в системе.


Еще до появления искусственного интеллекта (ИИ) социальное неравенство уже породило дискриминацию в доступе к спокойному, человеческому отношению. Возможно, нет никакого «впереди» или «позади», а есть просто разные пути развития.

Многие эксперты, такие как художница Дженнифер Уолш и программист Марга Падилья, призывают изучать инструменты ИИ, играть с ними и понимать их ограничения, рассматривая их как «удобрение для воображения». Однако есть и противоположные мнения. Музыкант Энтони Моссер, например, называет себя «ненавистником ИИ», утверждая, что его ненависть — это празднование человечности. Он подчеркивает, что ИИ не может чувствовать, любить или ненавидеть, поскольку ему безразлично. Все сходятся в одном: «ИИ» — это лишь маскировка для множества различных технологий, процессов и целей.

Значительная часть этих процессов связана с автоматизацией, системами автоматизированного принятия решений и прогностической оптимизацией. Автоматизация может быть полезна для снижения утомляемости или разработки антибиотиков. Но когда речь идет о человеческих отношениях, никто не хочет, чтобы с ним обращались как с винтиком в механизме или просто как с номером.

Мы, люди, одновременно различны и равны. Наше равенство требует недискриминации в правах. Наша уникальность требует мира, который учитывает то, что трудно или невозможно измерить. Два схожих случая часто не равны, потому что каждый человек несет в себе уникальный контекст, связи, радости и несчастья. Мы стремимся к тому, чтобы наша уникальность была услышана и понята.

К сожалению, многие специалисты забывают о человеке перед собой, часто не из-за равнодушия, а потому что «система не позволяет» поступить иначе. Работник, который бессильно смотрит на экран и говорит: «Я понимаю, но система не дает мне возможности», гуманизирует машину и дегуманизирует клиента, а также самого себя, поскольку его опыт и критерии игнорируются.

Дискриминация в доступе к человеческому отношению недопустима. Усиливать ее во имя эффективности — тем более. Если у врача нет времени на каждого пациента, решение не в автоматизации функции, а во вмешательстве в условия труда. Право на человеческое отношение не должно зависеть от того, где вы живете или сколько можете заплатить.

Проект автоматизированной эффективности часто называют «неизбежным», но это не так. В истории, где многие решения имеют необратимые последствия, необходимо тщательно взвешивать каждый шаг.

Среди слабых мест автоматизации:

  • Чрезмерное потребление ресурсов (электричества и воды) центрами обработки данных.
  • Экспоненциальное умножение ошибок при широкомасштабном внедрении систем.
  • Автоматизация обмана и спекуляций.
  • Обесценивание человеческих отношений.

Когда мы говорим: «Я хочу поговорить с человеком», а синтетическая модель отвечает: «Мне жаль, что я не смог вам помочь», это не художественный вымысел, а мошенничество. В этих словах нет воли к повествованию, нет «я», нет действия сожаления. Язык — это общее достояние, и мы не должны позволять его растрачивать до такой степени, чтобы забыть: за каждым значением должно стоять желание что-то сказать, а за каждым действием — желание быть ответственным, чтобы быть свободным.

Про автора

Мария - журналист культурного отдела, освещающая события в мире искусства и развлечений США. Её статьи о Голливуде, Бродвее и американской музыкальной сцене всегда находят отклик у читателей.