Как аналитик с более чем двадцатилетним опытом работы в индустрии искусственного интеллекта и технологий, я видел немало объявлений, но недавняя пресс-репортаж OpenAI был просто впечатляющим. Подход компании к постепенному представлению своих передовых моделей — это умная стратегия, которая держит разработчиков в напряжении и с нетерпением ожидает, что будет дальше.
Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.
Прочитать отчет 10-KНа девятый день своего рекламного мероприятия, посвященного технологиям, OpenAI объявила, что предоставит полную версию своей модели рассуждения o1 избранной группе разработчиков через свой API. Раньше разработчики могли просто работать с менее мощной моделью o1-preview, но теперь, начиная с анонса во вторник, у них есть доступ к расширенной версии.
Компания объявила, что полная модель o1 будет доступна разработчикам в категории высшего уровня, известной как «Tier 5». Это пользователи, которые вели учетную запись более месяца и потратили в компании не менее 1000 долларов США. Эта новая услуга довольно дорогая из-за увеличения вычислительных ресурсов, необходимых для o1, ее стоимость составляет примерно 15 долларов США за 750 000 проанализированных слов и 60 долларов США за 750 000 слов, сгенерированных моделью. По сравнению с выполнением аналогичных задач с использованием GPT-4o, эта услуга обходится в три-четыре раза дороже.
Рекомендуемые видео
Как исследователь, я могу подтвердить, что с учетом этих цен мы старательно расширяем возможности нашей полной модели по сравнению с предыдущей итерацией. Новая модель O1 обеспечивает более высокую степень настройки, чем ее предшественница: параметр «reasoning_effort» теперь контролирует продолжительность времени, которое ИИ тратит на обдумывание заданного вопроса. Примечательно, что он также включает вызов функций, сообщения разработчика и анализ изображений — функции, которые отсутствовали в предварительной версии O1.
Компания объявила о планах интегрировать свои модели GPT-4o и 4o-mini в свой API Realtime, предназначенный для быстрых приложений голосового искусственного интеллекта, таких как Advanced Voice Mode. Этот API теперь включает поддержку WebRTC, открытого отраслевого стандарта для создания приложений голосового искусственного интеллекта в веб-браузерах. Поэтому ожидайте резкого увеличения количества веб-сайтов, готовых взаимодействовать с вами, к 2025 году.
В своем объявлении OpenAI описала свою интеграцию WebRTC как специально разработанную для беспрепятственного и адаптируемого общения в реальных обстоятельствах, включая меняющееся качество сети. Он отвечает за управление сжатием, передачей звука, уменьшением фонового шума и управлением трафиком.
Во время продолжающегося мероприятия в прямом эфире OpenAI представила несколько значительных обновлений: полную версию o1 (ранее анонсированную во вторник), запуск модели генерации видео Sora, введение новой функции «Проекты», а также многочисленные улучшения в Функции холста, поиска и расширенного голосового режима.
Поскольку до финального дня мероприятия осталось всего три дня, остается загадкой, какую удивительную демонстрацию приготовил OpenAI. Время покажет!
Смотрите также
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- Ваш MacBook Pro M3 наконец-то может подключаться к двум дисплеям
- 20 лучших циферблатов Samsung Galaxy Watch, которые вам стоит использовать
- Я попробовал OxygenOS 15 от OnePlus, и он намного лучше, чем я ожидал
- Чужая Земля: Все типы инопланетных существ в новом шоу (Фото)
- Honor Magic 7 Pro против Honor Magic 6 Pro: стоит ли обновляться?
- Обзор Google Pixel 10 Pro XL
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- Лучшие бесплатные менеджеры паролей
- Apple Watch Series 10 против Apple Watch SE 2: особенности или доступность?
2024-12-18 00:27