Чат-боты ChatGPT и Bing могут плодить фейки

Нейросети ChatGPT и Bing научили распространять дезинформацию.

Чат-боты ChatGPT и Bing от OpenAI и Microsoft соответственно научились цитировать друг друга, распространяя фейковые новости, пишет портал The Verge.

Так, один из пользователей форума Hacker News решил пошутить о том, что нейросеть Bard, которую представила ранее Google, решили закрыть. Другой пользователь применил ChatGPT, чтобы создать фейковую новость об этом "событии" с помощью чат-бота. 

Когда чат-боту Bard задали вопрос, когда его закроют, он ответил, что уже закрыт, выбрав "Hacker News" в качестве источника. Когда такой же вопрос задали Bing, он тоже подтвердил закрытие Bard. У чат-бота при этом оказалось уже шесть ссылок на источники. 

Издание The Verge отмечает, что началось все из-за одной шутки на Hacker News. Портал предложил представить, что если бы реально захотелось вывести этих чат-ботов из строя. Такая забавная ситуация может нести серьезные последствия. Учитывая, что искусственный интеллект не отличает правду от лжи, чат-боты могут создавать целые потоки дезинформации, которые без какого-либо контроля быстро распространятся по интернету, вводя людей в заблуждение.

Фото ТЕЛЕПОРТ.РФ

При использовании материалов активная индексируемая гиперссылка на сайт ТЕЛЕПОРТ.РФ обязательна.

Содержимое данного поля является приватным и не предназначено для показа.

Ограниченный HTML

  • Допустимые HTML-теги: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Строки и абзацы переносятся автоматически.
  • Адреса веб-страниц и email-адреса преобразовываются в ссылки автоматически.

Новости