
В современном мире технологий и инноваций системы искусственного интеллекта стремительно развиваются и проникают в различные сферы нашей жизни. На сегодняшний день наблюдается рост использования искусственного интеллекта практически во всех областях – в бизнесе, образовании, медицине и повседневной жизни. Однако последние исследования и выводы специалистов свидетельствуют о том, что по мере усложнения искусственного интеллекта, увеличиваются также и его проблемы и ошибки.
В частности, вокруг последних моделей компании OpenAI – особенно самых мощных алгоритмов под названиями o3 и o4-mini – возникло множество вопросов и критических замечаний. По сообщению известного издания The New York Times, последняя и самая продвинутая модель OpenAI – o3 – допускает значительно больше ошибок по сравнению с предыдущими поколениями. Это указывает на серьезные проблемы в процессе «мышления» и вывода выводов искусственным интеллектом.
Подобные ошибки наблюдаются не только в продуктах OpenAI, но и в моделях искусственного интеллекта крупных технологических компаний, таких как Google, а также китайского стартапа DeepSeek. Несмотря на значительное улучшение их вычислительных и математических способностей, количество ошибок в ответах, предоставляемых ИИ, не уменьшается, а наоборот, растёт.
Одной из самых серьёзных и часто встречающихся ошибок в сфере искусственного интеллекта является проблема «галлюцинаций». Термин «галлюцинация» в данном контексте означает сфабрикованные, вымышленные данные, созданные ИИ без источников и оснований. То есть, искусственный интеллект представляет несуществующие события или неправильную информацию как будто это правда.
По словам генерального директора компании Vectara Амра Авадалы, такие галлюцинации, несмотря на усилия, остаются структурной проблемой искусственного интеллекта. Это ещё раз подтверждает необходимость осторожности при работе с ИИ-системами.
Ярким примером проблемы галлюцинаций стала ошибка ИИ-бота в службе технической поддержки Cursor. Этот бот предоставил ложную информацию о том, что инструмент может быть использован только на одном компьютере, что вызвало большие недоразумения. Впоследствии выяснилось, что компания не устанавливала таких ограничений, и вся эта информация была выдумана ботом.
Подобные неприятные случаи – лишь один из примеров, демонстрирующих склонность ИИ к галлюцинациям. Согласно независимым и внутренним тестам, новые модели o3 и o4-mini допускали галлюцинации в 51% и 79% случаев соответственно при ответах на общие вопросы. Это значительно выше по сравнению с моделью o1, у которой данный показатель составлял 44%.
Более подробные результаты тестов показали, что при ответах на вопросы, связанные с известными личностями, модель o3 предоставляла ошибочные ответы в одной трети случаев – в два раза больше, чем o1. Особенно ухудшилась ситуация с моделью o4-mini, где уровень ошибок достиг 48%.
Эксперты отмечают, что галлюцинации регулярно наблюдаются и в моделях ИИ от Google и стартапа DeepSeek. Несмотря на усилия этих компаний по снижению ошибок, за прошедший год уровень галлюцинаций снизился лишь на 1–2%.
Компании OpenAI и другие разработчики признают необходимость дополнительных научных исследований для выявления причин этой проблемы. На фоне резкого роста спроса на инструменты искусственного интеллекта, устранение этих проблем имеет не только научную, но и практическую, а также экономическую важность.
В целом, по мере расширения возможностей ИИ, возрастает и его ответственность. В то время как разработчики, исследователи и компании стремятся создавать новые и более совершенные алгоритмы, для общественности особенно важными остаются вопросы точности и достоверности искусственного интеллекта.
Решение подобных проблем в будущем станет важным шагом к укреплению роли искусственного интеллекта в жизни людей и к следующему этапу технологического прогресса. Именно поэтому новости на эту тему будут регулярно освещаться Zamin.uz и оперативно доводиться до читателей. Читайте «Замин» в Telegram!
Ctrl
Enter
Нашли оШибку
Выделите текст и нажмите Ctrl+Enter Новости по теме