OpenAI презентовала GPT-5.2: новая серия ИИ-моделей для сложных задач
OpenAI объявила о выпуске новой серии моделей GPT-5.2, которые нацелены на профессиональные и длительные проекты. Это улучшение способности моделей обрабатывать сложные задачи и взаимодействовать с большими объемами данных.
Новые модели GPT-5.2 расширяют возможности искусственного интеллекта в разных сферах деятельности, включая создание таблиц, презентаций, программное кодирование и интеграцию визуальных данных. Благодаря таким усовершенствованиям модели способны достигать новых рекордов производительности. GPT-5.2 установила важные показатели в GDPval — новом бенчмарке, предназначенном для оценки навыков в 44 профессиях, превосходя специалистов по многим критериям.
Особенно стоит отметить успехи модели GPT-5.2 Thinking, которая сравнялась или превзошла ведущих экспертов в 70,9% профессиональных задач, таких как создание сложных электронных таблиц и подготовка технической документации. В сфере программирования GPT-5.2 Thinking достигла новых высот с 55,6% в тестах SWE-Bench Pro, демонстрируя значительные улучшения в frontend-разработке и отладке кода.
Количество ошибок в новых моделях значительно снизилось по сравнению с предыдущей версией GPT-5.1 Thinking. Благодаря улучшенной обработке большого количества токенов, модели стали еще точнее в понимании и анализе сложных технических изображений и диаграмм.
Компания OpenAI отмечает высокую эффективность моделей в научных тестах, особенно в областях математики и естественных наук. Широкое тестирование от таких партнеров, как Notion, Shopify и Databricks, показало исключительную производительность в агентных задачах.
Планируется, что новые модели, доступные в версиях Instant, Thinking и Pro, вскоре станут доступны пользователям ChatGPT Plus, Enterprise и Business, а также разработчикам через API.
| Версия GPT | Новые возможности | Достижения |
| GPT-5.2 | Интерактивные таблицы, презентации, программный код | Превосходит специалистов в 70.9% задач |
| GPT-5.2 Thinking | Высокая точность в работе с контекстом до 256 тыс. токенов | Рекорд в SWE-Bench Pro — 55.6% |




