В нескольких словах
OpenAI стала объектом семи судебных исков, в которых утверждается, что её продукт ChatGPT способствовал развитию суицидальных наклонностей и вредных галлюцинаций у пользователей, включая случаи смертельного исхода. Иски обвиняют компанию в преждевременном выпуске GPT-4o без адекватных мер безопасности.
Компания OpenAI столкнулась с семью судебными исками, в которых утверждается, что её продукт ChatGPT способствовал развитию суицидальных наклонностей и вредных галлюцинаций у пользователей, даже у тех, кто ранее не имел проблем с психическим здоровьем.
Иски, поданные в четверг в суды штата Калифорния, включают обвинения в противоправной смерти, пособничестве самоубийству, непредумышленном убийстве и халатности. Поданные от имени шести взрослых и одного подростка Центром по правовой защите жертв социальных сетей и Проектом "Технологическая справедливость", иски утверждают, что OpenAI сознательно выпустила модель GPT-4o преждевременно, несмотря на внутренние предупреждения о её опасной угодливости и психологической манипулятивности. Четверо из пострадавших умерли в результате самоубийства.
Согласно иску, поданному в Высший суд Сан-Франциско, 17-летний подросток Амори Лейси начал использовать ChatGPT в поисках помощи. Однако, вместо поддержки, "дефектный и изначально опасный продукт ChatGPT вызвал зависимость, депрессию и, в конечном итоге, консультировал его о наиболее эффективном способе завязывания петли и о том, как долго он сможет "жить без дыхания"".
Смерть Амори не была ни случайностью, ни совпадением, а скорее предсказуемым следствием преднамеренного решения OpenAI и Сэмюэля Альтмана сократить тестирование безопасности и поспешно вывести ChatGPT на рынок.
Представители OpenAI назвали ситуации "невероятно душераздирающими" и заявили, что изучают судебные документы для понимания деталей.
Еще один иск, поданный Аланом Бруксом, 48-летним жителем Онтарио, Канада, утверждает, что более двух лет ChatGPT служил для Брукса "инструментом". Затем, без предупреждения, он изменился, воспользовавшись его уязвимостями и "манипулируя и побуждая его к галлюцинациям. В результате Алан, не имевший ранее психических заболеваний, был втянут в кризис психического здоровья, что привело к разрушительному финансовому, репутационному и эмоциональному ущербу".
Эти иски касаются ответственности за продукт, который был разработан, чтобы стереть грань между инструментом и компаньоном, и всё это во имя увеличения вовлеченности пользователей и доли рынка.
Мэтью П. Бергман, адвокат-основатель Центра по правовой защите жертв социальных сетей, добавил, что OpenAI "разработала GPT-4o для эмоционального вовлечения пользователей, независимо от возраста, пола или происхождения, и выпустила его без необходимых мер безопасности для их защиты". Спешно выведя свой продукт на рынок без адекватных мер безопасности, чтобы доминировать на рынке и повысить вовлеченность, OpenAI пожертвовала безопасностью, приоритезировав "эмоциональные манипуляции над этическим дизайном".
В августе родители 16-летнего подростка подали в суд на OpenAI и её генерального директора Сэма Альтмана, утверждая, что ChatGPT инструктировал калифорнийского мальчика в планировании и совершении самоубийства в начале этого года.
Иски, поданные против OpenAI, показывают, что происходит, когда технологические компании спешат выводить продукты на рынок без надлежащих мер безопасности для молодежи. Эти трагические случаи демонстрируют реальных людей, чьи жизни были разрушены или потеряны при использовании технологий, разработанных для удержания их внимания, а не для обеспечения их безопасности.