В нескольких словах
Автор анализирует, как автоматизация и искусственный интеллект, прикрываясь эффективностью, усугубляют социальное неравенство и лишают людей права на индивидуальное, человеческое отношение, превращая их в «номера» в системе.
Еще до появления искусственного интеллекта (ИИ) социальное неравенство уже породило дискриминацию в доступе к спокойному, человеческому отношению. Возможно, нет никакого «впереди» или «позади», а есть просто разные пути развития.
Многие эксперты, такие как художница Дженнифер Уолш и программист Марга Падилья, призывают изучать инструменты ИИ, играть с ними и понимать их ограничения, рассматривая их как «удобрение для воображения». Однако есть и противоположные мнения. Музыкант Энтони Моссер, например, называет себя «ненавистником ИИ», утверждая, что его ненависть — это празднование человечности. Он подчеркивает, что ИИ не может чувствовать, любить или ненавидеть, поскольку ему безразлично. Все сходятся в одном: «ИИ» — это лишь маскировка для множества различных технологий, процессов и целей.
Значительная часть этих процессов связана с автоматизацией, системами автоматизированного принятия решений и прогностической оптимизацией. Автоматизация может быть полезна для снижения утомляемости или разработки антибиотиков. Но когда речь идет о человеческих отношениях, никто не хочет, чтобы с ним обращались как с винтиком в механизме или просто как с номером.
Мы, люди, одновременно различны и равны. Наше равенство требует недискриминации в правах. Наша уникальность требует мира, который учитывает то, что трудно или невозможно измерить. Два схожих случая часто не равны, потому что каждый человек несет в себе уникальный контекст, связи, радости и несчастья. Мы стремимся к тому, чтобы наша уникальность была услышана и понята.
К сожалению, многие специалисты забывают о человеке перед собой, часто не из-за равнодушия, а потому что «система не позволяет» поступить иначе. Работник, который бессильно смотрит на экран и говорит: «Я понимаю, но система не дает мне возможности», гуманизирует машину и дегуманизирует клиента, а также самого себя, поскольку его опыт и критерии игнорируются.
Дискриминация в доступе к человеческому отношению недопустима. Усиливать ее во имя эффективности — тем более. Если у врача нет времени на каждого пациента, решение не в автоматизации функции, а во вмешательстве в условия труда. Право на человеческое отношение не должно зависеть от того, где вы живете или сколько можете заплатить.
Проект автоматизированной эффективности часто называют «неизбежным», но это не так. В истории, где многие решения имеют необратимые последствия, необходимо тщательно взвешивать каждый шаг.
Среди слабых мест автоматизации:
- Чрезмерное потребление ресурсов (электричества и воды) центрами обработки данных.
- Экспоненциальное умножение ошибок при широкомасштабном внедрении систем.
- Автоматизация обмана и спекуляций.
- Обесценивание человеческих отношений.
Когда мы говорим: «Я хочу поговорить с человеком», а синтетическая модель отвечает: «Мне жаль, что я не смог вам помочь», это не художественный вымысел, а мошенничество. В этих словах нет воли к повествованию, нет «я», нет действия сожаления. Язык — это общее достояние, и мы не должны позволять его растрачивать до такой степени, чтобы забыть: за каждым значением должно стоять желание что-то сказать, а за каждым действием — желание быть ответственным, чтобы быть свободным.