
Если вы недавно перешли на более новую модель iPhone, вы, вероятно, заметили, что Apple Intelligence появляется в некоторых из ваших самых используемых приложений, таких как сообщения, почта и заметки. Apple Intelligence (да, также сокращена с ИИ) появилась в экосистеме Apple в октябре 2024 года, и это здесь, чтобы остаться, поскольку Apple конкурирует с Google, OpenAI, Anpropic и другими, чтобы создать лучшие инструменты ИИ.
Что такое интеллект Apple?

Руководители маркетинга Cupertino имеют фирменную Apple Intelligence: «ИИ для остальных из нас». Платформа предназначена для использования вещей, которые генеративное ИИ уже преуспевает, например, генерация текста и изображений, чтобы улучшить существующие функции. Как и другие платформы, включая CHATGPT и Google Gemini, Apple Intelligence была обучена большим информационным моделям. Эти системы используют глубокое обучение для формирования соединений, будь то текст, изображения, видео или музыка.
Текстовое предложение, основанное на LLM, представляет собой инструменты для написания. Эта функция доступна в различных приложениях Apple, включая почту, сообщения, страницы и уведомления. Он может быть использован для предоставления резюме длинного текста, корректуры и даже записи сообщений для вас, используя подсказки для контента и тона.
Генерация изображений также была интегрирована, аналогичным образом — хотя и немного менее плавно. Пользователи могут предложить Apple Intelligence создать пользовательские смайлики (Genmojis) в стиле Apple House. Image Playground, тем временем, является автономным приложением генерации изображений, в котором используются проведения для создания визуального контента, чем можно использовать в сообщениях, основной доме или обмен через социальные сети.
Apple Intelligence также отмечает долгожданный лифт лица для Siri. Умный помощник был рано в игре, но в основном пренебрегали в течение последних нескольких лет. Сири гораздо более глубоко интегрирован в операционные системы Apple; Например, вместо знакомых значков пользователи увидят светящийся свет по краю экрана iPhone, когда он делает свое дело.
Что еще более важно, New Siri работает в приложениях. Это означает, например, вы можете попросить Siri отредактировать фотографию, а затем вставить ее непосредственно в текстовое сообщение. Это беспрепятственный опыт, которого помощник ранее не хватал. Осведомленность на экране означает, что Siri использует контекст контента, который вы в настоящее время занимаетесь, чтобы дать соответствующий ответ.
В преддверии WWDC 2025, многие ожидали, что Apple познакомит нас с еще более подготовленной версией Siri, но нам придется подождать немного дольше.
«Как мы поделились, мы продолжаем свою работу по предоставлению функций, которые делают Siri еще более личными,-сказала Apple SVP из разработки программного обеспечения Craig Federighi на WWDC 2025.-« Эта работа потребовалась больше времени для достижения нашего высококачественного бара, и мы с нетерпением ждем возможности поделиться большим количеством этого в предстоящем году ».
Предполагается, что эта еще более персонализированная версия Siri еще не выпущена, например, ваши отношения, рутина коммуникации и многое другое. Но, согласно отчету Bloomberg, версия этого нового Siri в разработке слишком погрешена, чтобы отправить, отсюда и его задержка.
На WWDC 2025 Apple также представила новую функцию ИИ под названием Visual Intelligence, которая помогает вам выполнять поиск изображения, которые вы видите, когда вы просматриваете. Apple также представила функцию живого перевода, которая может перевести разговоры в режиме реального времени в сообщениях, FaceTime и телефонных приложениях.
Ожидается, что визуальный интеллект и живой перевод будут доступны позже в 2025 году, когда iOS 26 запустится для публики.
Когда была обнародована Apple Intelligence?
После нескольких месяцев спекуляций Apple Intelligence заняла центральное место на WWDC 2024. Платформа была объявлена после потока генеративных новостей искусственного интеллекта от таких компаний, как Google и Open AI, вызывая обеспокоенность тем, что знаменитый технический гигант с плотно подготовленным пропустил лодку по последней технической увлечению.
Однако, вопреки таким спекуляциям, у Apple была команда, работая над тем, что оказалось очень яблочным подходом к искусственному интеллекту. По -прежнему была пиззаз, среди демонстраций — Apple всегда любит устроить шоу — но Apple Intelligence в конечном итоге является очень прагматичным взглядом на категорию.
Apple Intelligence не является автономной функцией. Скорее, речь идет о интеграции в существующие предложения. Несмотря на то, что это упражнение по брендингу в очень реальном смысле, технология, управляемая крупной языковой моделью (LLM), будет работать за кулисами. Что касается потребителя, то технология в основном будет присутствовать в виде новых функций для существующих приложений.
Мы узнали больше во время мероприятия Apple iPhone 16 в сентябре 2024 года. Во время мероприятия Apple рекламировала ряд функций с AI, поступающими на его устройства, от перевода в серию Apple Watch, визуальный поиск на iPhone и ряд настройки возможностей Siri. Первая волна интеллекта Apple появляется в конце октября, в рамках iOS 18.1, iPados 18.1 и MacOS Sequoia 15.1.
Функции были запущены первыми в американском английском. Позже Apple добавила австралийские, канадские, новозеландские, южноафриканские и британские английские локализации. Поддержка китайского, английского (Индия), английского (Сингапур), французского, немецкого, итальянского, японского, корейского, португальского, испанского и вьетнамца прибудет в 2025 году.
Кто получает Apple Intelligence?

Первая волна Apple Intelligence появилась в октябре 2024 года. Эти обновления включали в себя интегрированные инструменты письма, очистку изображений, резюме статьи и ввод для печати для перепроектированного опыта Siri. Вторая волна функций стала доступной в рамках iOS 18.2, iPados 18.2 и MacOS Sequoia 15.2. Этот список включает в себя, Genmoji, Image Playground, Visual Intelligence, Image Wand и Integration Chatgpt.
Эти предложения бесплатны для использования, если у вас есть одна из следующих элементов оборудования:
- Все модели iPhone 16
- iPhone 15 Pro Max (A17 Pro)
- iPhone 15 Pro (A17 Pro)
- iPad Pro (M1 и позже)
- iPad Air (M1 и позже)
- iPad mini (A17 или позже)
- MacBook Air (M1 и позже)
- MacBook Pro (M1 и позже)
- iMac (M1 и позже)
- Mac Mini (M1 и позже)
- Mac Studio (M1 Max и позже)
- Mac Pro (M2 Ultra)
Примечательно, что только профессиональные версии iPhone 15 получают доступ, благодаря недостаткам на чипсете стандартной модели. Предположительно, однако, вся линия iPhone 16 сможет запустить Apple Intelligence, когда она прибывает.
Как Apple работает ИИ без подключения к Интернету?

Когда вы задаете GPT или Gemini вопрос, ваш запрос отправляется на внешние серверы для создания ответа, который требует подключения к Интернету. Но Apple приняла маленькую модель, на заказ подход к обучению.
Самым большим преимуществом этого подхода является то, что многие из этих задач становятся гораздо менее интенсивными ресурсами и могут быть выполнены на грани. Это связано с тем, что, вместо того, чтобы полагаться на тип подхода кухонной раковины, который питает такие платформы, как GPT и Gemini, компания собирала наборы данных внутри определенных задач, таких как, скажем, сочинение электронного письма.
Однако это не относится ко всему. Более сложные запросы будут использовать новое предложение Creat Cloud Compute. В настоящее время компания управляет удаленными серверами, работающими на Apple Silicon, который, по ее словам, позволяет предлагать тот же уровень конфиденциальности, что и его потребительские устройства. Независимо от того, выполняется ли действие локально или через облако будет невидимым для пользователя, если только их устройство не в автономном режиме, и в этот момент удаленные запросы будут отбросить ошибку.
Apple Intelligence со сторонними приложениями

Было издано много шума о ожидаемом партнерстве Apple с Openai перед запуском Apple Intelligence. В конечном счете, однако, выяснилось, что сделка заключается не в том, чтобы привести к питанию интеллекта Apple, а больше о том, чтобы предложить альтернативную платформу для тех вещей, для которых она не на самом деле создана. Это молчаливое подтверждение, что строительство системы малой модели имеет свое ограничение.
Apple Intelligence бесплатна. Так же тоже доступ к Chatgpt. Тем не менее, те, у кого есть платные учетные записи последних, будут иметь доступ к премиальным функциям, которые не получают бесплатные пользователи, включая неограниченные запросы.
Интеграция CHATGPT, которая дебютирует на iOS 18.2, iPados 18.2 и MacOS Sequoia 15.2, имеет две основные роли: дополнение базы знаний Siri и добавление к существующим вариантам инструментов письма.
С помощью Service включена, определенные вопросы побуждают новую Siri попросить пользователя утвердить доступ к его доступу Catgpt. Рецепты и планирование поездок являются примерами вопросов, которые могут вывести вариант. Пользователи также могут напрямую предложить Siri «спросить CHATGPT».
Compose — это другая основная функция CHATGPT, доступная через Apple Intelligence. Пользователи могут получить доступ к нему в любом приложении, которое поддерживает новую функцию инструментов записи. Compose добавляет возможность записывать контент на основе подсказки. Который присоединяется к существующим инструментам письма, такими как стиль и резюме.
Мы точно знаем, что Apple планирует сотрудничать с дополнительными генеративными услугами искусственного интеллекта. Компания почти сказала, что Google Gemini будет следующим в этом списке.
Могут ли разработчики построить модели Apple's Models?
На WWDC 2025 Apple объявила, что она называет фондом моделей Foundation, которая позволит разработчикам задействовать свои модели искусственного интеллекта, находясь в автономном режиме.
Это позволяет разработчикам встроить функции ИИ в свои сторонние приложения, которые используют существующие системы Apple.
«Например, если вы готовитесь к экзамену, такое приложение, как Kahoot, может создать персонализированную викторину из ваших заметок, чтобы сделать более увлекательное изучение», — сказал Федериги на WWDC. «И поскольку это происходит с использованием моделей на устройствах, это происходит без затрат на облачный API (…), мы не могли бы быть более взволнованными из-за того, как разработчики могут опираться на интеллект Apple, чтобы принести вам новые впечатления, которые являются умными, доступными, когда вы офлайн, и которые защищают вашу конфиденциальность».