Apple объяснила, почему Apple Intelligence будет доступен только на iPhone 15 Pro

Артём Баусов avatar | 30
FavoriteLoading В закладки
Apple объяснила, почему Apple Intelligence будет доступен только на iPhone 15 Pro

Искусственный интеллект Apple Intelligence появится в iOS 18 и других операционных системах от Apple. Однако у него есть ряд ограничений по устройствам: минимум iPhone 15 Pro и iPad/Mac с чипом M1.

Журналист Джон Грубер из Daring Fireball спросил у директора Apple по искусственному интеллекту/машинному обучению Джона Джаннандреа, директора по маркетингу Грега Джосвиака и директора по разработке программного обеспечения Крейга Федериги, почему такое ограничение для работы ИИ установила компания.

Джаннандреа: «Когда вы запускаете эти функции, это называется логическим выводом, а вывод больших языковых моделей невероятно требователен к вычислительным ресурсам. Сочетание пропускной способности устройства, размера ядер Apple Neural Engine и мощности устройства позволяет моделям работать достаточно быстро, чтобы быть полезными. В теории, вы могли бы запускать эти модели на очень старых устройствах, но это было бы настолько медленно, что было бы бесполезно».

Грубер: «Значит, это не схема продажи новых iPhone?»

Джосвиак: «Нет, совсем нет. В противном случае мы бы сделали этот ИИ доступным только для самых последних iPad и Mac, не так ли?»

Крейг Федериги тоже заявил, что для запуска Apple Intelligence требуется колоссальная мощность. В целом, подобную систему необычно запускать на iPhone, и лишь новейший айфон на такое способен.

Федериги намекнул, что оперативная память также является еще одним аспектом, который требуется для новых функций искусственного интеллекта. По этой причине все устройства, совместимые с Apple Intelligence, имеют не менее 8 ГБ оперативной памяти. [MacRumors]

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (21 голосов, общий рейтинг: 4.76 из 5)
undefined
iPhones.ru
Искусственный интеллект Apple Intelligence появится в iOS 18 и других операционных системах от Apple. Однако у него есть ряд ограничений по устройствам: минимум iPhone 15 Pro и iPad/Mac с чипом M1. Журналист Джон Грубер из Daring Fireball спросил у директора Apple по искусственному интеллекту/машинному обучению Джона Джаннандреа, директора по маркетингу Грега Джосвиака и директора по...

🙈 Комментарии 30

Форум →
  1. Nostromo avatar
    Nostromo19 июня в 17:21
    4

    Фу ты, пронесло. Слава богу не на всех огрызках.

  2. mnemonic avatar
    mnemonic19 июня в 17:21
    8

    Вот как раз память там и является ограничением. А не проц и npu.

  3. maksimt avatar
    maksimt19 июня в 17:24
    3

    Но чип м1 на айпад по моему менее мощный по ии, чем в айфоне 14 про?

    Йода avatar
    Йода19 июня в 17:57
    0

    @maksimt, Вы показатели “мощности по ии” этих двух чипов не нормировали, вот отсюда и вырождение смысла. ;)

    Dr.Plush avatar
    Dr.Plush19 июня в 19:17
    2

    @maksimt, если смотреть недавнюю статью про Geekbench ml 15 pro, то он в Geekbench выдает 6249 баллов при тестировании Neural Engine, iPad Pro m1 в этом же тесте выдает почти 6900 баллов

    maksimt avatar
    maksimt19 июня в 19:23
    1

    @Dr.Plush, ну и с 14 pro не «катострафическая пропасть из за которой все будет тормозить в разы» как говорит эппл. Там с м1 разница в два ядра из восьми, частота одинаковая

    redupcoming avatar
    redupcoming20 июня в 0:11
    0

    @maksimt, а chatgpt вообще облако. + адекватная npu сама по себе должна резко снижать нагрузку на оперативку.

    Dr.Plush avatar
    Dr.Plush20 июня в 17:47
    0

    @maksimt, ну скачайте бенчмарк и прогоните тест и сравните результат, просто м1 мощней 15 pro max в этом тесте

  4. redupcoming avatar
    redupcoming19 июня в 17:42
    1

    Учитывая, что у огрызка сейчас основной продукт обмылок… особенно в контексте того, что ChatGPT – облачный ИИ сервис.

  5. mlserg avatar
    mlserg19 июня в 17:57
    4

    Может хотя бы ai заставит эппл ставить адекватный объем оперативки в базовых версиях устройств.

    Bsd avatar
    Bsd20 июня в 14:28
    1

    @mlserg, ну сделают они 16 гб в базе, с ценником на 200$ выше, вам станет легче что ли?)

  6. Slavvvcom avatar
    Slavvvcom19 июня в 19:16
    3

    Учитывая продуктовый график на 2 года вперед, Эппл прекрасно знала, что айфоны 14 pro не будут поддерживать ИИ и сознательно разместили в нем 8 гб оперативки. Так что это все-таки сознательные действия, для стимуляции продаж новых устройств.

    hotarm avatar
    hotarm19 июня в 19:20
    8

    @Slavvvcom, в 14 pro 6 гб оперативки

    mnemonic avatar
    mnemonic19 июня в 21:34
    1

    @hotarm, помните недавние сообщения, что у нового ipad pro нашли 4 гига “лишней” памяти?
    видимо эта память как раз для того, чтобы там комфортно работала SLM модель ИИ.

    Slavvvcom avatar
    Slavvvcom20 июня в 13:17
    0

    @hotarm, ошибся, это и имел в виду – Эпл сознательно разместила в нем 6 гб оперативки, зная, что не будет поддержки ИИ

  7. Dmitrii avatar
    Dmitrii19 июня в 20:24
    4

    Маркетинг, ничего личного) Раньше прогрессом правили инженеры, теперь маркетологи)

  8. i3laze avatar
    i3laze19 июня в 21:00
    2

    Ну они же в презентации WWDC рассказывали про offload сложных запросов в облако..(

    Почему нельзя со старых телефонов в облако отправлять сразу 100% запросов? Поглядим на релиз осенью.

    Siger avatar
    Siger19 июня в 21:38
    4

    @i3laze, с выходом нового (15) поколения не нашел ни единой причины менять свой 14 Pro Max.
    На который поменял Х просто из-за физического износа, никаких новых прямо вот фишек в 14PM относительно Х нет.
    А вот про 16 уже задумываюсь – вдруг в этих ИИшных функциях что-то будет интересное (не факт, но вдруг)
    Вот для этого все и делается

    v11v avatar
    v11v20 июня в 2:24
    0

    @i3laze, долго и дорого (для эпл) будет, плюс надо две разные системы разрабатывать и тестировать, опять, дольше и дороже. И все для чего, чтобы пользователи получили посредственное впечатление и написали кучу негативных отзывов (запросы через интернет будут медленнее)? Так все и сейчас могут скачать приложение ChatGPT и пользоваться им на любом устройстве.

    А тут Apple и деньги экономит (по максимуму загружает устройства локально) и дает причину людям обновиться. Все же Apple — не благотворительностью занимается, а в первую очередь деньги зарабатывает.

    MMM8 avatar
    MMM820 июня в 3:00
    0

    @v11v, когда слышу что для Эпл разработка чего-то нового будет долго стоить, то сразу думаю о том как найм дополнительных высококлассных специалистов сильно бьёт по карману триллионой компании

  9. ipg avatar
    ipg19 июня в 21:23
    2

    и все таки маркетинг…

  10. AppleDominator avatar
    AppleDominator19 июня в 23:21
    4

    Не очень верю так как по слухам этот Apple AI это просто партнерка с OpenAI, то есть облачный сервис. Так что хз, что там айфон 14 слишком большой json переварить не может?

    v11v avatar
    v11v20 июня в 2:19
    0

    @AppleDominator, по каким слухам? Все уже давно объяснили как работает Apple Intelligence. И в бете уже можно тестировать. Запросов к ChatGPT там почти нет.

    Demyanov.P avatar
    Demyanov.P20 июня в 11:56
    1

    @AppleDominator, Зачем слухи какие то если на презентации всё сказали. LLM будет работать локально на устройстве, и только для сложных информационных запросов будет отправляться запрос на OpenAI. То есть 90% запросов будет обработаться на устройстве и оффлайн, в некоторой степени это маленькая революция, все другие всё делают через сервера в интернете.

  11. v11v avatar
    v11v20 июня в 0:27
    0

    Скорее всего энергозатраты больше влияют на их решение — локальные модели потребляют много энергии, например, Stable Diffusion съедает несколько процентов батареи за 10 минут использования (около 5%). Конечно, Apple могли запускать эти модели в своем облаке, но тогда эти запросы на старых устройствах были бы дольше, чем при локальной обработке (снова недовольные пользователи) и скорее всего очень дорого для Apple (недовольная Apple). Ну и получается логично и в принципе ничего нового, удивительно, что они поддержку текущей версии айфона вообще добавили — Сири вот не была портирована на 4ку.

  12. rossvelboy avatar
    rossvelboy20 июня в 10:17
    1

    “бюджетный” Pixel 8a как-то может работать с встроенной нейросетью Google Gemini Nano. А Iphone нет.

  13. messer avatar
    messer20 июня в 10:18
    2

    У меня вопрос для чего тогда нужны были “бионические” мощности в чипах Apple начиная с A11 Bionic? чтобы бекграунд на фотках размывать? Эмейзинг, спасибо, великолепно. То есть всё это время в айфонах был ИИ-ускоритель, однако мощности его “не хватило” для работы Apple ИИ.

  14. zored avatar
    zored20 июня в 11:07
    0

    Так ведь оно всё на серверах OpenAI работает. Или я что-то не пойму?

    kulibindima avatar
    kulibindima20 июня в 15:54
    0

    @zored, нет все на устройстве, только отдельные запросы в OpenAI

  15. Концентратор avatar
    Концентратор20 июня в 23:16
    0

    Они при желании могли сделать просто: со старых аппаратов отправка запроса в облако, от последних про, обработка локальная и при необходимости в облако.
    Во всей этой истории не понятно как будет работать на самом деле, что действительно будет онлайн, а что в облаке. + не забываем, чтобы что-то обработать оффлайн, нужно место под LLM модели, а это опять же будет за счет пользователя.
    Эпл сейчас как никогда настроена на выкачивание денег с пользователей. Всё это продлится ровно до тех пор, пока кто-то не выпустит что-то реально революционное, далее (конечно не сразу) Эпл будет ждать участь нокии на мобильном рынке.

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь