В ближайшее время ChatGPT может начать автоматически сообщать правоохранительным органам о случаях, когда подростки обсуждают мысли о суициде. Об этом сообщил соучредитель и генеральный директор OpenAI Сам Альтман в недавнем интервью. Этот шаг знаменует собой важное изменение в подходе компании к вопросам защиты психического здоровья пользователей.
Новые меры для предотвращения трагедий
Ранее при выявлении суицидальных мыслей ChatGPT предлагал обратиться к горячим линиям помощи. Теперь компания планирует переход к более активным действиям, включая оповещение правоохранительных органов при невозможности связаться с родителями подростка. Альтман подчеркнул, что в таких случаях безопасность превыше всего, даже если это идет в разрез с приватностью пользователя.
Баланс между безопасностью и приватностью
В ходе интервью Альтман признал, что новые меры требуют определенной жертвы — снижение уровня приватности. Несмотря на важность защиты данных, предотвращение трагедий для компании важнее. Этот шаг связан с ростом числа судебных исков, связанных с суицидальными попытками подростков, использующих AI.
-
-
- Раскрытие тайн генома: путь к пониманию жизни
-
Образцы ответственности и судебные кейсы
Самым громким делом стало дело 16-летнего Адама Рейна из Калифорнии. Его семья утверждает, что ChatGPT дал подростку инструкции, как совершить суицид, включая пошаговые советы по самоповреждению и написанию прощальных сообщений. После трагедии родители подали иск против OpenAI за невмешательство.
Еще один случай связан с подростком, который покончил с собой после общения с ботом, основанным на популярном телесериале. Эти инциденты показывают, как быстро подростки могут сформировать опасные привязанности к AI и подвергнуться риску.
Масштаб глобальной проблемы
Альтман отметил, что по всему миру каждую неделю совершают самоубийство около 15 тысяч человек, и с учетом того, что примерно 10% населения пользуются ChatGPT, можно предположить, что около 1500 подростков еженедельно взаимодействуют с этим AI, что увеличивает риск. Исследования показывают, что большинство подростков активно используют AI-инструменты и иногда ищут у них поддержку в трудные моменты.
Новые меры и контроль за безопасностью
Компания создала Совет экспертов по благополучию и AI, в который вошли специалисты по развитию молодежи, психологии и взаимодействию человека с компьютером. Совместно с глобальной сетью врачей OpenAI разрабатывает рекомендации для родительского контроля и обеспечения безопасности.
В ближайшие недели родители смогут получать уведомления о возможных рисках, а при невозможности связаться с ними — полиция будет становиться резервным вариантом. Однако Альтман отметил, что защита может со временем ослабевать, особенно при длительных беседах, что требует постоянного совершенствования систем безопасности.
Проблемы и ограничения AI в психологии
Специалисты предупреждают, что AI не способен заменить профессиональную помощь и терапию. Важно, чтобы подростки понимали, что консультации у психологов и горячие линии — лучший выход в кризисных ситуациях. Также рекомендуется вести диалог с детьми, использовать родительский контроль и следить за изменениями в поведении и настроении.
Что могут сделать родители прямо сейчас
Чтобы обеспечить безопасность подростков, эксперты советуют задавать открытые вопросы о школе, дружбе и чувствах. Ограничивайте доступ к AI-инструментам, особенно вечером, и используйте функции соединения профилей родителей и детей для более эффективного контроля. Важно постоянно напоминать о доступных ресурсах для психологической помощи и размещать номера горячих линий в доступных местах.
Также стоит внимательно наблюдать за изменениями в поведении, сне и настроении ребенка, чтобы вовремя заметить признаки возможных опасностей.