Искусственный интеллект Apple Intelligence появится в iOS 18 и других операционных системах от Apple. Однако у него есть ряд ограничений по устройствам: минимум iPhone 15 Pro и iPad/Mac с чипом M1.
Журналист Джон Грубер из Daring Fireball спросил у директора Apple по искусственному интеллекту/машинному обучению Джона Джаннандреа, директора по маркетингу Грега Джосвиака и директора по разработке программного обеспечения Крейга Федериги, почему такое ограничение для работы ИИ установила компания.
Джаннандреа: «Когда вы запускаете эти функции, это называется логическим выводом, а вывод больших языковых моделей невероятно требователен к вычислительным ресурсам. Сочетание пропускной способности устройства, размера ядер Apple Neural Engine и мощности устройства позволяет моделям работать достаточно быстро, чтобы быть полезными. В теории, вы могли бы запускать эти модели на очень старых устройствах, но это было бы настолько медленно, что было бы бесполезно».
Грубер: «Значит, это не схема продажи новых iPhone?»
Джосвиак: «Нет, совсем нет. В противном случае мы бы сделали этот ИИ доступным только для самых последних iPad и Mac, не так ли?»
Крейг Федериги тоже заявил, что для запуска Apple Intelligence требуется колоссальная мощность. В целом, подобную систему необычно запускать на iPhone, и лишь новейший айфон на такое способен.
Федериги намекнул, что оперативная память также является еще одним аспектом, который требуется для новых функций искусственного интеллекта. По этой причине все устройства, совместимые с Apple Intelligence, имеют не менее 8 ГБ оперативной памяти. [MacRumors]
30 комментариев
Форум →Фу ты, пронесло. Слава богу не на всех огрызках.
Вот как раз память там и является ограничением. А не проц и npu.
Но чип м1 на айпад по моему менее мощный по ии, чем в айфоне 14 про?
@maksimt, Вы показатели “мощности по ии” этих двух чипов не нормировали, вот отсюда и вырождение смысла. ;)
@maksimt, если смотреть недавнюю статью про Geekbench ml 15 pro, то он в Geekbench выдает 6249 баллов при тестировании Neural Engine, iPad Pro m1 в этом же тесте выдает почти 6900 баллов
@Dr.Plush, ну и с 14 pro не «катострафическая пропасть из за которой все будет тормозить в разы» как говорит эппл. Там с м1 разница в два ядра из восьми, частота одинаковая
@maksimt, а chatgpt вообще облако. + адекватная npu сама по себе должна резко снижать нагрузку на оперативку.
@maksimt, ну скачайте бенчмарк и прогоните тест и сравните результат, просто м1 мощней 15 pro max в этом тесте
Учитывая, что у огрызка сейчас основной продукт обмылок… особенно в контексте того, что ChatGPT – облачный ИИ сервис.
Может хотя бы ai заставит эппл ставить адекватный объем оперативки в базовых версиях устройств.
@mlserg, ну сделают они 16 гб в базе, с ценником на 200$ выше, вам станет легче что ли?)
Учитывая продуктовый график на 2 года вперед, Эппл прекрасно знала, что айфоны 14 pro не будут поддерживать ИИ и сознательно разместили в нем 8 гб оперативки. Так что это все-таки сознательные действия, для стимуляции продаж новых устройств.
@Slavvvcom, в 14 pro 6 гб оперативки
@hotarm, помните недавние сообщения, что у нового ipad pro нашли 4 гига “лишней” памяти?
видимо эта память как раз для того, чтобы там комфортно работала SLM модель ИИ.
@hotarm, ошибся, это и имел в виду – Эпл сознательно разместила в нем 6 гб оперативки, зная, что не будет поддержки ИИ
Маркетинг, ничего личного) Раньше прогрессом правили инженеры, теперь маркетологи)
Ну они же в презентации WWDC рассказывали про offload сложных запросов в облако..(
Почему нельзя со старых телефонов в облако отправлять сразу 100% запросов? Поглядим на релиз осенью.
@i3laze, с выходом нового (15) поколения не нашел ни единой причины менять свой 14 Pro Max.
На который поменял Х просто из-за физического износа, никаких новых прямо вот фишек в 14PM относительно Х нет.
А вот про 16 уже задумываюсь – вдруг в этих ИИшных функциях что-то будет интересное (не факт, но вдруг)
Вот для этого все и делается
@i3laze, долго и дорого (для эпл) будет, плюс надо две разные системы разрабатывать и тестировать, опять, дольше и дороже. И все для чего, чтобы пользователи получили посредственное впечатление и написали кучу негативных отзывов (запросы через интернет будут медленнее)? Так все и сейчас могут скачать приложение ChatGPT и пользоваться им на любом устройстве.
А тут Apple и деньги экономит (по максимуму загружает устройства локально) и дает причину людям обновиться. Все же Apple — не благотворительностью занимается, а в первую очередь деньги зарабатывает.
@v11v, когда слышу что для Эпл разработка чего-то нового будет долго стоить, то сразу думаю о том как найм дополнительных высококлассных специалистов сильно бьёт по карману триллионой компании
и все таки маркетинг…
Не очень верю так как по слухам этот Apple AI это просто партнерка с OpenAI, то есть облачный сервис. Так что хз, что там айфон 14 слишком большой json переварить не может?
@AppleDominator, по каким слухам? Все уже давно объяснили как работает Apple Intelligence. И в бете уже можно тестировать. Запросов к ChatGPT там почти нет.
@AppleDominator, Зачем слухи какие то если на презентации всё сказали. LLM будет работать локально на устройстве, и только для сложных информационных запросов будет отправляться запрос на OpenAI. То есть 90% запросов будет обработаться на устройстве и оффлайн, в некоторой степени это маленькая революция, все другие всё делают через сервера в интернете.
Скорее всего энергозатраты больше влияют на их решение — локальные модели потребляют много энергии, например, Stable Diffusion съедает несколько процентов батареи за 10 минут использования (около 5%). Конечно, Apple могли запускать эти модели в своем облаке, но тогда эти запросы на старых устройствах были бы дольше, чем при локальной обработке (снова недовольные пользователи) и скорее всего очень дорого для Apple (недовольная Apple). Ну и получается логично и в принципе ничего нового, удивительно, что они поддержку текущей версии айфона вообще добавили — Сири вот не была портирована на 4ку.
“бюджетный” Pixel 8a как-то может работать с встроенной нейросетью Google Gemini Nano. А Iphone нет.
У меня вопрос для чего тогда нужны были “бионические” мощности в чипах Apple начиная с A11 Bionic? чтобы бекграунд на фотках размывать? Эмейзинг, спасибо, великолепно. То есть всё это время в айфонах был ИИ-ускоритель, однако мощности его “не хватило” для работы Apple ИИ.
Так ведь оно всё на серверах OpenAI работает. Или я что-то не пойму?
@zored, нет все на устройстве, только отдельные запросы в OpenAI
Они при желании могли сделать просто: со старых аппаратов отправка запроса в облако, от последних про, обработка локальная и при необходимости в облако.
Во всей этой истории не понятно как будет работать на самом деле, что действительно будет онлайн, а что в облаке. + не забываем, чтобы что-то обработать оффлайн, нужно место под LLM модели, а это опять же будет за счет пользователя.
Эпл сейчас как никогда настроена на выкачивание денег с пользователей. Всё это продлится ровно до тех пор, пока кто-то не выпустит что-то реально революционное, далее (конечно не сразу) Эпл будет ждать участь нокии на мобильном рынке.
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.Как отвязать банковскую карту от Apple ID
Как управлять компьютером Mac с дивана
Почему в macOS Sonoma раздвигаются окна при нажатии на рабочий стол
Как снять ограничение на загрузку приложений по LTE на iPhone
Выключаем синхронизацию истории звонков между айфонами
Как на iPhone 15 делать снимки с разрешением 48 мегапикселей
Стоит ли покупать медиасервер на Windows, если есть Mac
Как узнать, какие места посещает владелец iPhone?