По мере роста качества работы систем искусственного интеллекта, растёт и доверие к ним со стороны всё больше числа людей. Чат-боты, виртуальные ИИ-помощники, консультанты и прочее-прочее настолько прочно вошли в жизнь многих людей, что фраза из рекламы «Объясни, что такое биссектриса простыми словами» становится уже описанием глобального тренда – когда человек хочет «ещё проще», хотя, казалось бы, всё и так просто.
Безусловно, ИИ в ряде сфер способен кардинально изменять подходы, облегчая человеку жизнь. Но у бурного и фактически слабоконтролируемого развития систем искусственного оказались есть и свои подводные камни. Один из них – так называемые галлюцинации ИИ.
Пример приводит американская пресса. Житель Миннеаполиса во время пути с работы домой получил сообщение от используемого чат-бота (не будем называть конкретную модель) о «запланированной на сегодня семейной встрече». Американец удивился, так как не помнил, чтобы какую-то особенную встречу сегодня планировал и делился информацией с виртуальным помощником. Он попросил «нейронку» разъяснить, что она имеет в виду.
В ответ на это на его смартфон пришли несколько электронных писем «подтверждения» того, что мужчина назначал встречу своим родственникам. Американец был удивлён ещё больше. Не страдая потерями памяти, он попросил чат-бота раскрыть информацию о том, откуда тот взял эти письма. Бот информацию предоставил, только оказалось, что письма эти отправлялись другим человеком с другого почтового ящика.
Американская пресса:
Это вызвало у человека тревогу. Получается, что ИИ либо получил доступ к конфиденциальной переписке другого человека и по какой-то странной причине идентифицировал её с «хозяином», либо же он просто имитировал такой доступ к переписке и календарям с заметками.
Сам чат-бот, как говорится ничтоже сумняшеся, просто попросил извинения, признав «ошибку». На каком основании он её совершил и где вообще взял озвученные данные, не сообщил.
И это далеко не единичный случай. Как пишет Bloomberg, инциденты с ИИ-галлюцинациями фиксируются не только на бытовом уровне, когда они ни к каким серьёзным последствиям не приводят, но и на уровне корпоративном. Возникают серьёзные риски приватности, безопасности данных и, ключевое, доверия как такового к ИИ-инструментарию.
Эксперты говорят, что процент ошибок весьма низок. Но из-за большого числа запросов и самих объёмов использования ИИ (включая чат-боты) эти ошибки всё больше на слуху. Да и возникает вопрос: где гарантия того, что использование ИИ в конкретном случае (например, в военном планировании) не приведёт к тому, что результат изначально будет опираться на ошибочный контекст, а потом нейросеть просто попросит прощения?..