Как искусственный интеллект размывает границы между фейком и правдой

154 0

Фото, видео: REUTERS/Dado Ruvic/Illustration/File Photo; 5-tv.ru

Перейти в ДзенСледите за нашими новостями
в удобном формате

Недавно мировые соцсети взбудоражила новость о якобе взрыве у Пентагона. Позднее оказалось, что информация не соответствует действительности, а «подтверждающее» фото было сгенерировано нейросетью.

Фотография с черными клубами дыма стала причиной международного скандала. В понедельник на полтора часа она распространилась по всем соцсетям, попала на международные ленты новостей. Все потому что подпись гласила: «Взрыв у Пентагона». Потом выяснилось, что фото — сгенерировано искусственным интеллектом (ИИ). Кто-то вбросил его в информпространство через поддельный же Twitter-аккаунт. Многие поверили, ведь на Пентагон была атака в 2001 году. То что новость фейк смогли понять только, когда несколько журналистов съездили к Пентагону и сняли свежие кадры, где никаких клубов, понятное дело, не было.

Современные технологии становятся все более искушенными — в копировании человеческой речи, облика, способа мышления. Большой скандал вызвала публикация в одном из немецких таблоидов якобы интервью с Михаэлем Шумахером. Ответы от лица гонщика, который последние десять лет фактически прикован к постели после тяжелых травм на горнолыжном спуске — привлекли читателей и после оттолкнули. Текст был сгенерирован нейросетью, о чем в статье была приписка, правда мелкими буквами, как в банковских договорах.

В конечном счете самые изощренные технологии на службу добра или зла ставят все равно люди и развитие искусственного интеллекта обостряет философский вопрос — доверия. Доверяешь ли этому источнику информации? СМИ? Или человеку, от которого ты слышишь или получаешь что-то?


Новости партнеров


Новости СМИ2