Статьи

Галлюцинации нейросети: почему искусственный интеллект порой выдает ужасающие вещи

Галлюцинации нейросети: почему искусственный интеллект порой выдает ужасающие вещи

Термин «галлюцинации искусственного интеллекта» используется для описания случаев, когда нейросети, такие как, например, ChatGPT, выдают неточную или полностью неверную информацию.

Вот один из ярких примеров: в 2023 году ChatGPT обвинил профессора права Джонатана Терли в сексуальных домогательствах. В рамках исследования его коллега попросил нейросеть составить список ученых-юристов, которые были обвинены в харассменте. Имя Терли оказалось в списке.

Чат-бот сообщил, что профессор Терли домогался до студента во время образовательной поездки на Аляску, сославшись на некую статью в The Washington Post за 2018 год. Но есть нюанс — такой статьи никогда не существовало и не было никакой поездки на Аляску.

«Это было довольно пугающе, — поделился Терли в интервью The Washington Post. — Обвинения такого рода наносят невероятный вред».

Неужели нейросеть нарочно оклеветала профессора? По мнению исследователя Майкла Таунсена Хикса и его коллег из Университета Глазго, искусственный интеллект вовсе не пытается нас обмануть.

Если мы предполагаем, что нейросети намеренно вводят людей в заблуждение, это означает, что они различают, что есть правда, а что — ложь. Однако эта мысль ошибочна.

В отличие от человеческого мозга, который имеет множество целей и моделей поведения, нейросеть преследует единственную цель: генерировать текст очень похожий на человеческий

Похожие статьи

Поэтому ученые утверждают, что неточности искусственного интеллекта лучше называть не галлюцинациями, а брехней. И да, это устоявшийся в философии термин. Чтобы лучше понять его, полезно взглянуть на то, как определил концепцию брехни философ Гарри Франкфурт.

Так, лжец, по мнению Франкфурта, знает правду, но сознательно решает сказать что-то ложное. Брехня же безразлична к истине. Ее заботит не точность утверждений, а лишь то, чтобы они выглядели убедительными. Ученые утверждают, что ошибки таких программ, как ChatGPT, лучше соответствуют определению брехни Франкфурта, чем концепция галлюцинаций.

По материалам

Нажмите, чтобы оценить статью!
[Общий: 0 Средний: 0]

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

18 − 10 =

Кнопка «Наверх»