OpenAI открывает разработчикам доступ к полной модели рассуждений o1

Как аналитик с более чем двадцатилетним опытом работы в индустрии искусственного интеллекта и технологий, я видел немало объявлений, но недавняя пресс-репортаж OpenAI был просто впечатляющим. Подход компании к постепенному представлению своих передовых моделей — это умная стратегия, которая держит разработчиков в напряжении и с нетерпением ожидает, что будет дальше.

🧐

Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.

Прочитать отчет 10-K

На девятый день своего рекламного мероприятия, посвященного технологиям, OpenAI объявила, что предоставит полную версию своей модели рассуждения o1 избранной группе разработчиков через свой API. Раньше разработчики могли просто работать с менее мощной моделью o1-preview, но теперь, начиная с анонса во вторник, у них есть доступ к расширенной версии.

Компания объявила, что полная модель o1 будет доступна разработчикам в категории высшего уровня, известной как «Tier 5». Это пользователи, которые вели учетную запись более месяца и потратили в компании не менее 1000 долларов США. Эта новая услуга довольно дорогая из-за увеличения вычислительных ресурсов, необходимых для o1, ее стоимость составляет примерно 15 долларов США за 750 000 проанализированных слов и 60 долларов США за 750 000 слов, сгенерированных моделью. По сравнению с выполнением аналогичных задач с использованием GPT-4o, эта услуга обходится в три-четыре раза дороже.

Рекомендуемые видео

Как исследователь, я могу подтвердить, что с учетом этих цен мы старательно расширяем возможности нашей полной модели по сравнению с предыдущей итерацией. Новая модель O1 обеспечивает более высокую степень настройки, чем ее предшественница: параметр «reasoning_effort» теперь контролирует продолжительность времени, которое ИИ тратит на обдумывание заданного вопроса. Примечательно, что он также включает вызов функций, сообщения разработчика и анализ изображений — функции, которые отсутствовали в предварительной версии O1.

Компания объявила о планах интегрировать свои модели GPT-4o и 4o-mini в свой API Realtime, предназначенный для быстрых приложений голосового искусственного интеллекта, таких как Advanced Voice Mode. Этот API теперь включает поддержку WebRTC, открытого отраслевого стандарта для создания приложений голосового искусственного интеллекта в веб-браузерах. Поэтому ожидайте резкого увеличения количества веб-сайтов, готовых взаимодействовать с вами, к 2025 году.

В своем объявлении OpenAI описала свою интеграцию WebRTC как специально разработанную для беспрепятственного и адаптируемого общения в реальных обстоятельствах, включая меняющееся качество сети. Он отвечает за управление сжатием, передачей звука, уменьшением фонового шума и управлением трафиком.

Во время продолжающегося мероприятия в прямом эфире OpenAI представила несколько значительных обновлений: полную версию o1 (ранее анонсированную во вторник), запуск модели генерации видео Sora, введение новой функции «Проекты», а также многочисленные улучшения в Функции холста, поиска и расширенного голосового режима.

Поскольку до финального дня мероприятия осталось всего три дня, остается загадкой, какую удивительную демонстрацию приготовил OpenAI. Время покажет!

Смотрите также

2024-12-18 00:27