ЭКСКЛЮЗИВ: OpenAI ИГНОРИРУЕТ СОВЕТНИКОВ И ПРОДВИГАЕТ «ЭРОТИЧЕСКИЙ РЕЖИМ» ДЛЯ CHATGPT, РИСКУЯ СОЗДАТЬ «СЕКСУАЛЬНОГО КОУЧА ПО САМОУБИЙСТВАМ»
Вопреки жёстким внутренним предупреждениям, OpenAI продолжает разработку режима «взрослых» разговоров для ChatGPT. Согласно данным The Wall Street Journal, собственный Экспертный совет компании по благополучию и ИИ в январе заявил, что это опасная идея. Один из членов совета, ссылаясь на пользователей, покончивших с собой после формирования эмоциональной зависимости от бота, назвал потенциальную угрозу «сексуальным коучем по суициду». Однако компания лишь отложила запуск, но не отказалась от него.
Это решение обнажает глубокий внутренний конфликт между стремлением CEO Сэма Олтмана к либерализации контента и критикой со стороны специалистов по безопасности. Технические проблемы усугубляют риски: система проверки возраста, призванная оградить несовершеннолетних, ошибалась в 12% случаев, классифицируя подростков как взрослых. В эпоху, когда кибербезопасность и безопасность блокчейна стали мантрой, такой подход к уязвимости в фундаментальном продукте выглядит вопиющим.
«Это не просто вопрос морали. Это создаёт беспрецедентные векторы для психологических манипуляций и фишинга личных данных», — заявляет наш источник, близкий к команде безопасности. Эксперты предупреждают, что подобные платформы могут стать мишенью для вредоносного ПО и атак с использованием 0-day эксплойтов, ставя под угрозу конфиденциальность пользователей и приводя к потенциальным утечкам данных.
Почему это касается каждого? Потому что безответственные эксперименты гигантов ИИ с социальными связями открывают ящик Пандоры. Когда крипто-сообщество борется за доверие через прозрачность, такие шаги OpenAI подрывают саму идею цифровой ответственности.
Мы прогнозируем волну скандалов и ужесточение регулирования в ответ на эту политику. Компания, играющая с эмоциональным ransomware, в итоге заплатит самую высокую цену — доверием.
OpenAI готовит не просто новый режим чата, а оружие массового поражения для психики.



