Пользователи социальной сети X теперь могут предотвратить модификацию своих загруженных изображений чат-ботом Grok от xAI. Ни X, ни xAI — обе компании принадлежат Илону Маску — не делали публичных заявлений об этой функции, которую пользователи начали замечать в приложении iOS в меню загрузки изображений/видео в последние несколько дней.
Вероятно, эта опция является ответом на недавний скандал с Grok, начавшийся в начале 2026 года, когда добавление инструментов для генерации изображений в чат-бот привело к созданию около 3 миллионов сексуализированных или «обнажающих» изображений. По оценкам Центра по противодействию цифровой ненависти, примерно 23 000 изображений, созданных за этот 11-дневный период, содержали сексуализированные изображения детей. В результате Grok сейчас сталкивается с двумя отдельными расследованиями со стороны регулирующих органов ЕС.
Положительной стороной добавления этой функции является то, что X и xAI сделали шаг к ограничению ненадлежащего использования Grok. Эта блокировка представляет собой простой переключатель, который не был глубоко спрятан в пользовательском интерфейсе. Это, безусловно, приятно.
Однако отрицательная сторона заключается в том, что этот жест является лишь символическим и не приводит к серьезным улучшениям в работе или возможностях использования Grok. Прекрасно, что чат-бот не будет изменять файл, загруженный одним человеком, но, как сообщает The Verge, блокировка ограничивает только возможность пометки Grok в ответе для создания редактирования изображения. Существует множество обходных путей для тех, кто настойчиво желает использовать генеративный ИИ для «раздевания» людей без их согласия или ведома.
Надеемся, что xAI разрабатывает более мощные защитные инструменты. Ограничения Grok на размещение реальных людей в откровенной одежде, о которых X объявила в январе, по-видимому, имели в лучшем случае лишь частичный успех. Если это дополнительное и узкое применение — все, что предлагает компания, то заявления о «нулевой терпимости» к несанкционированной наготе будут звучать неубедительно. Тем более что, как мы отмечали тогда, xAI могла бы полностью приостановить генерацию изображений до тех пор, пока проблема не будет надлежащим образом и полностью устранена.








