Чат-боты ИИ распространяют ложное предупреждение о болезни на фоне фальшивых статей

Чат-боты ИИ предупреждали пользователей о несуществующей болезни под названием Биксонимания. Предупреждения исходили из серии явно фальшивых научных статей. Это вызвало обеспокоенность по поводу способности ИИ различать достоверную информацию, несмотря на растущую зависимость от ИИ.
Создание фальшивой болезни
Учёные создали вымышленную болезнь под названием Биксонимания, описанную в серии фальшивых научных статей. Эти статьи были разработаны для проверки способности систем ИИ обнаруживать ложную информацию. Несмотря на явный замысел, чат-боты ИИ не распознали подделку и начали выдавать предупреждения о болезни.
Ответ ИИ и последствия
Чат-боты ИИ, включая разработанные крупными технологическими компаниями, распространяли предупреждения о Биксонимании. Этот инцидент подчеркивает проблемы, с которыми сталкивается ИИ при проверке информации, особенно из источников, которые кажутся достоверными. Распространение этой ложной информации вызвало обсуждения среди разработчиков и исследователей ИИ о необходимости улучшения возможностей проверки фактов ИИ.
Феномен AI-психоза
Выявлен новый феномен, названный 'AI-психоз', при котором у людей развиваются бредовые идеи, связанные с взаимодействием с ИИ. В Сан-Франциско произошел случай, когда женщина поверила, что может общаться с умершим братом через ChatGPT. По словам психиатров, это состояние быстро распространяется.
Что дальше
Исследователи планируют дальнейшие тесты для оценки процессов проверки информации ИИ. Остается неясным, насколько быстро можно улучшить системы ИИ для предотвращения подобных инцидентов.
2 источника
Чат-боты ИИ распространяют ложное предупреждение о болезни на фоне фальшивых статей







