В нескольких словах
Некоммерческая организация Public Citizen потребовала от OpenAI отозвать приложение для создания ИИ-видео Sora, ссылаясь на серьезные угрозы, связанные с распространением дипфейков и несанкционированных изображений, которые могут подорвать доверие к реальности и стабильность демократии.
Технологическая индустрия вновь движется вперёд, нарушая устоявшиеся порядки. На этот раз под угрозой оказалась наша общая реальность и контроль над собственным образом до и после смерти – всё это благодаря платформам для генерации изображений с помощью искусственного интеллекта.
Типичное видео, созданное в приложении Sora от OpenAI и распространённое в TikTok, Instagram, X и Facebook, призвано быть достаточно забавным, чтобы вы захотели кликнуть и поделиться им. Это может быть рэп Королевы Елизаветы II или что-то более обыденное и правдоподобное. Один из популярных жанров Sora — это поддельные кадры с видеодомофона, на которых запечатлено что-то слегка необычное — например, удав на крыльце или аллигатор, приближающийся к невозмутимому ребёнку — и заканчивается лёгким шоком, например, криком бабушки, бьющей животное метлой.
Однако всё больше групп по защите прав, учёных и экспертов бьют тревогу по поводу опасностей, связанных с тем, что люди могут создавать ИИ-видео практически на любую тему, которую они могут ввести в текстовый запрос. Это приводит к распространению изображений без согласия и реалистичных дипфейков в потоке менее вредоносного «ИИ-мусора». OpenAI предприняла меры против ИИ-творения с изображением публичных фигур — среди них Майкл Джексон, Мартин Лютер Кинг-младший и Мистер Роджерс — выполняющих нелепые действия, но только после возмущения со стороны семейных фондов и профсоюза актёров.
Некоммерческая организация Public Citizen теперь требует от OpenAI отозвать Sora 2 из публичного доступа. В письме, направленном во вторник в адрес компании и её генерального директора Сэма Альтмана, отмечается, что поспешный выпуск приложения с целью опередить конкурентов демонстрирует «последовательную и опасную модель поспешного вывода OpenAI на рынок продукта, который либо изначально небезопасен, либо не имеет необходимых мер защиты». В письме говорится, что Sora 2 демонстрирует «безрассудное пренебрежение» безопасностью продукта, а также правами людей на собственное изображение и стабильностью демократии. Группа также направила письмо в Конгресс США.
OpenAI не ответила на запросы о комментариях во вторник.
«Наша самая большая обеспокоенность — это потенциальная угроза демократии, — заявил в интервью Джей Би Бранч, юрист по технологической политике Public Citizen. — Я думаю, мы вступаем в мир, где люди не могут по-настоящему доверять тому, что они видят. И мы начинаем видеть стратегии в политике, когда первое изображение, первое видео, которое выходит, — это то, что люди запоминают».
Бранч, автор письма от вторника, также видит более широкие опасения по поводу конфиденциальности людей, которые непропорционально затрагивают уязвимые группы населения в интернете. OpenAI блокирует обнажённую натуру, но Бранч сказал, что «женщины сталкиваются с преследованиями в интернете» другими способами, например, с фетишистским нишевым контентом, который проходит через ограничения приложений. Новостное издание сообщило о потоке созданных с помощью Sora видео, на которых женщин душат.
OpenAI представила своё новое приложение Sora на iPhone более месяца назад. На прошлой неделе оно было запущено на телефонах Android в США, Канаде и нескольких азиатских странах, включая Японию и Южную Корею.
Наиболее сильное сопротивление исходит от Голливуда и других развлекательных компаний, включая японскую индустрию манги. OpenAI объявила о своих первых крупных изменениях всего через несколько дней после выпуска, заявив, что «чрезмерная модерация очень расстраивает» пользователей, но важно быть консервативным, «пока мир всё ещё приспосабливается к этой новой технологии».
За этим последовали публично объявленные соглашения с семьёй Мартина Лютера Кинга-младшего 16 октября, предотвращающие «неуважительные изображения» лидера движения за гражданские права, в то время как компания работала над улучшением мер безопасности, и ещё одно 20 октября с актёром Брайаном Крэнстоном из сериала «Во все тяжкие», профсоюзом SAG-AFTRA и талант-агентствами.
«Это всё хорошо, если ты знаменит, — сказал Бранч. — Это просто модель поведения OpenAI, когда они готовы реагировать на возмущение очень небольшой части населения. Они готовы выпустить что-то и извиниться после. Но многие из этих проблем — это дизайнерские решения, которые они могут принять до выпуска».
OpenAI сталкивалась с аналогичными жалобами на свой флагманский продукт, ChatGPT. На прошлой неделе в судах Калифорнии были поданы иски, в которых утверждается, что чат-бот и вредные заблуждения вызывали проблемы с психическим здоровьем, даже если у них не было никаких предыдущих проблем с психическим здоровьем. Иски, поданные от имени шести взрослых и одного подростка Центром правовой защиты жертв социальных сетей и проектом Tech Justice Law Project, утверждают, что OpenAI сознательно выпустила GPT-4o преждевременно в прошлом году, несмотря на внутренние предупреждения о том, что он был опасно льстивым и психологически манипулятивным. Четверо жертв покончили жизнь самоубийством.
Public Citizen не участвовала в судебных процессах, но Бранч сказал, что видит параллели в поспешном выпуске Sora.
Он сказал, что они «давят на газ, не обращая внимания на вред. Большая часть этого кажется предсказуемой. Но они предпочитают выпустить продукт, чтобы люди скачивали его, чтобы люди пристрастились к нему, вместо того, чтобы поступить правильно и заранее провести стресс-тестирование этих вещей и позаботиться о бедственном положении обычных пользователей».
OpenAI провела прошлую неделю, отвечая на жалобы японской торговой ассоциации, представляющей известных аниматоров и создателей видеоигр, таких как Bandai Namco и Square Enix. OpenAI заявила, что многие фанаты аниме хотят взаимодействовать со своими любимыми персонажами, но компания также установила меры защиты, чтобы предотвратить генерацию известных персонажей без согласия правообладателей.
«Мы напрямую взаимодействуем со студиями и правообладателями, прислушиваемся к отзывам и учимся тому, как люди используют Sora 2, в том числе в Японии, где культурные и творческие индустрии высоко ценятся», — говорится в заявлении OpenAI по поводу письма торговой группы на прошлой неделе.