Как аналитик с более чем двадцатилетним опытом работы в индустрии искусственного интеллекта и технологий, я видел немало объявлений, но недавняя пресс-репортаж OpenAI был просто впечатляющим. Подход компании к постепенному представлению своих передовых моделей — это умная стратегия, которая держит разработчиков в напряжении и с нетерпением ожидает, что будет дальше.
На девятый день своего рекламного мероприятия, посвященного технологиям, OpenAI объявила, что предоставит полную версию своей модели рассуждения o1 избранной группе разработчиков через свой API. Раньше разработчики могли просто работать с менее мощной моделью o1-preview, но теперь, начиная с анонса во вторник, у них есть доступ к расширенной версии.
Компания объявила, что полная модель o1 будет доступна разработчикам в категории высшего уровня, известной как «Tier 5». Это пользователи, которые вели учетную запись более месяца и потратили в компании не менее 1000 долларов США. Эта новая услуга довольно дорогая из-за увеличения вычислительных ресурсов, необходимых для o1, ее стоимость составляет примерно 15 долларов США за 750 000 проанализированных слов и 60 долларов США за 750 000 слов, сгенерированных моделью. По сравнению с выполнением аналогичных задач с использованием GPT-4o, эта услуга обходится в три-четыре раза дороже.
Рекомендуемые видео
Как исследователь, я могу подтвердить, что с учетом этих цен мы старательно расширяем возможности нашей полной модели по сравнению с предыдущей итерацией. Новая модель O1 обеспечивает более высокую степень настройки, чем ее предшественница: параметр «reasoning_effort» теперь контролирует продолжительность времени, которое ИИ тратит на обдумывание заданного вопроса. Примечательно, что он также включает вызов функций, сообщения разработчика и анализ изображений — функции, которые отсутствовали в предварительной версии O1.
Компания объявила о планах интегрировать свои модели GPT-4o и 4o-mini в свой API Realtime, предназначенный для быстрых приложений голосового искусственного интеллекта, таких как Advanced Voice Mode. Этот API теперь включает поддержку WebRTC, открытого отраслевого стандарта для создания приложений голосового искусственного интеллекта в веб-браузерах. Поэтому ожидайте резкого увеличения количества веб-сайтов, готовых взаимодействовать с вами, к 2025 году.
В своем объявлении OpenAI описала свою интеграцию WebRTC как специально разработанную для беспрепятственного и адаптируемого общения в реальных обстоятельствах, включая меняющееся качество сети. Он отвечает за управление сжатием, передачей звука, уменьшением фонового шума и управлением трафиком.
Во время продолжающегося мероприятия в прямом эфире OpenAI представила несколько значительных обновлений: полную версию o1 (ранее анонсированную во вторник), запуск модели генерации видео Sora, введение новой функции «Проекты», а также многочисленные улучшения в Функции холста, поиска и расширенного голосового режима.
Поскольку до финального дня мероприятия осталось всего три дня, остается загадкой, какую удивительную демонстрацию приготовил OpenAI. Время покажет!
Смотрите также
- Huawei Watch GT 5 против GT 4: стоит ли обновлять свое носимое устройство?
- Панасоник ТВ-65Z95A
- Обзор PrivadoVPN: новый бюджетный VPN, которым можно пользоваться бесплатно
- Обзор саундбара LG S95TR: наконец-то хорошо
- Meta Quest 4: Чего мы хотим от следующей большой VR-гарнитуры
- Обзор HP EliteBook 1040: простой и красивый бизнес-ноутбук
- Мы только что узнали, сколько графических процессоров необходимо для питания сферы Лас-Вегаса.
- Lenovo Yoga Slim 7x 9-го поколения (2024 г.)
- Я боюсь, что Apple пропустит октябрьское мероприятие — вот что это значит для M4 MacBook Pro
- 13 фильмов о вампирах, которые стоит посмотреть бесплатно на Tubi до того, как «Носферату» появится в кинотеатрах
2024-12-18 00:27