Поддержать команду Зеркала
Беларусы на войне
  1. Обычный «отпускной» рейс превратился в борьбу за жизнь на высоте 5 километров. 22 минуты, которые потрясли авиамир
  2. Лукашенко снова пообещал «поснимать головы» чиновникам. Угадайте за что в этот раз
  3. Власти придумали очередное ограничение для населения
  4. Один из санаториев «взорвал» TikTok введенной платой за вход для некоторых людей. В здравнице ответили
  5. С начала года потерял больше 14%: как долго будет дешеветь доллар. Прогноз по валютам
  6. На рынке труда продолжает усугубляться обстановка — растет дефицит кадров. Но есть еще один не самый позитивный момент
  7. Чиновники взялись за еще одну категорию работников
  8. Из России пришла новость, которая угрожает нашему валютному рынку. Что об этом думают в Нацбанке и не будут ли принимать что-то похожее?
  9. Россияне продвигаются к Днепропетровской области с трех сторон — эксперты рассказали, как идет наступление


/

На прошлой неделе американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini. Однако, как показали тесты, обе модели, по-видимому, сделали значительный шаг назад: они склонны придумывать — или галлюцинировать — сильнее, чем их более ранние версии, пишет Naked Science.

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.

Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда как o4-mini показала еще более худший результат — 48%.

Хуже того, специалисты компании, похоже, не до конца понимают причины проблем. Согласно их техническому отчету, «необходимы дополнительные исследования, чтобы понять причину» этих ошибок.