Apple поставила на Gemini свое будущее в области ИИ. Вот как она может переосмыслить iPhone для вас.

В неожиданном шаге Apple объявила о партнёрстве с Google для улучшения Siri, её голосового помощника. Технология Gemini AI от Google теперь будет поддерживать Siri, а также использоваться для создания новых AI-функций для iPhone и Mac. Объявление было сделано в коротком совместном заявлении обеих компаний.

💰

"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.

Найти недооцененные активы

Apple объявила, что эти новые модели будут использоваться для предстоящих функций в Apple Intelligence, включая более настраиваемую Siri позднее в этом году. Хотя это является преимуществом для людей, использующих устройства Apple, это также признает, что Apple не лидировала в разработке AI на том же уровне, что и такие компании, как Google, Meta и OpenAI.

Уже некоторое время было понятно, что Apple искала способы улучшить Siri. Изначально они тестировали модели от Anthropic и OpenAI, но в конечном итоге выбрали технологию Google, что является сильным знаком того, насколько хорош Gemini. Теперь давайте посмотрим, что это, вероятно, означает для пользователей iPhone, таких как мы.

Итак, э-э, конфиденциальность?

Искусственный интеллект представляет собой значительную проблему: он становится гораздо более вовлеченным в нашу личную жизнь, чем такие платформы, как социальные сети. AI чат-боты могут получать доступ к невероятно личным данным – от наших электронных писем и фотографий до наших расписаний, документов и даже наших сокровенных мыслей. Эксперты начинают беспокоиться о том, что люди формируют сильные эмоциональные связи с этими AI системами.

И это ещё не всё. Каждый раз, когда вы используете AI-чат-бота, ваша информация отправляется на серверы компании для обработки. Иногда эти данные даже сохраняются для улучшения AI или из соображений безопасности, и вы часто не можете это остановить. Хорошим решением является AI на устройстве. Gemini Nano, например, работает непосредственно на вашем телефоне или компьютере, сохраняя ваши данные локально.

Ваши личные данные остаются на вашем устройстве, но это означает, что производительность ограничена. Более сложные задачи, такие как работа с видео или требовательные приложения, требуют облачной обработки. Теперь, когда ИИ Google используется в iPhone и Mac, учитывая послужной список Google, вас это устраивает? Apple уже разработала план решения этой проблемы и делает акцент на конфиденциальности при интеграции Gemini для обеспечения работы функций ИИ.

Apple заявляет, что её новые функции Apple Intelligence будут работать непосредственно на ваших устройствах Apple и в её защищённых центрах обработки данных. Это гарантирует конфиденциальность вашей информации и того, как вы используете ИИ, поскольку вся обработка происходит на собственных серверах Apple с использованием специально разработанных чипов и программного обеспечения, ориентированного на безопасность.

Как исследователь, изучающий облачную безопасность, я с большим интересом слежу за новой Private Cloud Compute (PCC) от Apple. Они позиционируют её как по-настоящему передовую систему безопасности для обработки ИИ в облаке. Особенно впечатляет то, что данные шифруются в момент их отправки с вашего устройства. И, что крайне важно, как только ваш запрос выполнен, как сам запрос, так и любые данные, которыми вы поделились, немедленно удаляются с их серверов. Этот подход действительно направлен на минимизацию хранения данных и максимальное повышение конфиденциальности пользователей.

Ваша информация не сохраняется, и Apple не имеет доступа к данным, обрабатываемым на наших облачных серверах. Gemini просто обеспечивает понимание ваших запросов – независимо от того, вводите вы их или произносите. После этого все данные безопасно обрабатываются на собственных серверах Apple, а не Google.

Что дальше?

Если вы попробовали Gemini, а затем попросили Siri сделать то же самое и заметили разницу в производительности, вы увидели, что эта новая коллаборация призвана исправить. Работая с Google, Apple теперь лучше подготовлена для создания собственных отличительных и мощных функций искусственного интеллекта.

Apple интегрирует технологию искусственного интеллекта Gemini для улучшения Siri и новых функций Apple Intelligence. Однако Apple не просто использует Gemini в неизменном виде. Не стоит ожидать, что название Gemini будет заметно отображаться при использовании этих более умных функций на вашем iPhone; Apple настраивает пользовательский опыт.

Apple просто заимствует мозги. Корпус и поведение будут в привычном стиле Apple.

Глядя на то, что Gemini уже умеет на Android, вы получаете представление об улучшениях, которые появятся на ваших устройствах Apple – iPhone, iPad и Mac. Apple добавляет технологию Gemini не только в Apple Intelligence и Siri; они интегрируют её на фундаментальном уровне.

Apple сотрудничает с Google для использования её технологии искусственного интеллекта с целью улучшения основной технологии, лежащей в основе Apple Intelligence. Это позволит реализовать такие функции, как суммирование текста, помощь в написании, создание изображений и обеспечение бесперебойной работы различных приложений вместе.

Эти модели ИИ впервые стали доступны в 2024 году и могут работать либо непосредственно на вашем устройстве, без доступа к интернету, либо с использованием серверов Apple. В 2025 году Apple выпустила улучшенные версии, которые работали быстрее, лучше обрабатывали фотографии и видео, эффективнее понимали язык и поддерживали более широкий спектр языков.

Основное преимущество фреймворка Foundation Models заключается в том, что он позволяет разработчикам внедрять ИИ непосредственно в устройства, делая приложения более удобными для пользователей. Например, вместо ручного создания плейлиста Spotify, вы могли бы просто попросить Siri: ‘создать плейлист из моих самых прослушиваемых песен в этом месяце’.

Это пока невозможно на iPhone.

Siri также испытывает трудности со сложными вопросами. Когда вы задаете что-то, выходящее за рамки простого запроса, она полагается на ChatGPT для получения ответов. В отличие от этого, Gemini от Google, представленная на телефонах, таких как Pixel 10 Pro, предоставляет немедленные ответы и может легко работать с другими приложениями для выполнения задач.

Я могу попросить Gemini выполнить такие задачи, как отправка сообщения моей сестре, Сабе, в WhatsApp, чтобы проверить её расписание занятий, и он это сделает. Поскольку приложения Google – такие как Gmail, Calendar и Drive – уже хорошо работают вместе, вы можете использовать голосовые команды для управления задачами во всех из них.

Gemini может легко справляться с задачами, такими как поиск планов поездок в вашей электронной почте, поиск по файлам или проверка вашего календаря. Это намного полезнее, чем Siri в этих ситуациях, и это может быть большим преимуществом для Apple.

Абсолютно новое начало

Apple объявила, что Gemini станет движущей силой за ее будущими Foundation Models. Это значительно улучшит способность Siri понимать и отвечать на естественный язык, делая ее менее роботизированной и более способной выполнять задачи непосредственно на вашем iPhone. Это обновление обещает множество преимуществ для пользователей.

Apple делает поиск на iPhone и Mac более похожим на разговор. Вы сможете использовать свой голос или текст, чтобы выполнять задачи – например, управлять заметками, воспроизводить музыку или проверять электронную почту – даже не открывая приложения. Это также будет работать с приложениями от других разработчиков.

Наша технология App Intents уже предоставляет основу для подключения и автоматизации задач между различными приложениями. Однако она не получила широкого распространения, вероятно, потому, что существующие модели ИИ были недостаточно мощными для разработчиков, чтобы с их помощью строить приложения. Теперь, с более продвинутым ИИ Gemini, работающим в функциях на устройстве, мы ожидаем, что больше разработчиков уверенно интегрируют разговорный ИИ в свои приложения.

Представьте, что вы можете использовать Siri для выполнения задач в различных приложениях, не открывая их. Вы можете получить предварительный просмотр этого на своем iPhone прямо сейчас. Просто откройте приложение ChatGPT, включите коннекторы приложений, и вы сможете использовать простой, повседневный язык для выполнения задач во многих приложениях – например, для управления Apple Music.

Однако имейте в виду, что подключение другого приложения к ChatGPT требует от вас входа в систему, и это предоставляет OpenAI больше информации о вас. Если вы используете встроенные инструменты своего компьютера, это обычно более конфиденциально, и процесс обычно протекает более плавно.

Apple может пойти по схожему пути с Google в отношении Gemini AI, но ей необходимо интегрировать Siri в свои собственные приложения таким образом, чтобы это казалось полезным, а не раздражающим. В отличие от некоторых других недавних интеграций ИИ, таких как Copilot, Alexa+, и даже Gemini, Apple следует сосредоточиться на более тонком и продуманном подходе. Apple преуспевает в пользовательском опыте, поэтому я с нетерпением жду, что они предложат позже в этом году.

Как большой поклонник Apple, я думаю, что им действительно было бы полезно взглянуть на то, насколько хорошо Gemini работает на Android и в интернете через сервисы Google. Теперь, когда у них есть доступ к этой технологии Gemini, они могли бы адаптировать её и внедрить в свои собственные приложения и сервисы – но, знаете ли, с этой классической полировкой и стилем Apple.

Итак, что всё это значит для ChatGPT, который уже является ключевой частью Apple Intelligence? Мы получим более чёткую картину в ближайшие месяцы, вероятно, на конференции разработчиков Apple в июне. Но прямо сейчас будущее Siri – и ИИ на устройствах Apple в целом – выглядит действительно многообещающим для обычных пользователей, таких как мы.

Смотрите также

2026-01-13 08:29