
Компанія вже провела переговори з обома організаціями, щоб обговорити можливість використання сторонньої мовної моделі як основи для Siri.
Обидві компанії розробляють версії своїх моделей штучного інтелекту, сумісних із системою Apple Private Cloud Compute. Apple зараз проводить тестування, але ще не прийняла остаточного рішення щодо переходу на сторонню модель. За даними Bloomberg, перевага наразі надається Anthropic, чий ШІ найкраще підходить для інтеграції в Siri. Apple та Anthropic вже обговорили попередні фінансові умови співпраці, але запит Anthropic — багатомільярдний щорічний платіж із сумою, що зростає з часом — змушує Apple розглядати інші варіанти, включаючи OpenAI.
Apple також розробляє власну велику мовну модель (LLM) для майбутньої версії Siri, але компанія давно стикається з труднощами в галузі штучного інтелекту. На презентації WWDC у червні 2024 року були показані нові функції Siri, заплановані для iPhone 16, але вони не були завершені вчасно.
У березні було оголошено, що запуск функцій Apple Intelligence у Siri було відкладено до 2026 року. Це викликало хвилю невдоволення серед користувачів і призвело до низки судових позовів. Зараз компанія планує додати ці функції в оновленні iOS 26.
Розробка Siri на базі LLM відбувається окремо від персоналізованих функцій, які з'являться в iOS 26. Нова версія на базі LLM, за попередніми даними, вийде восени 2026 року разом з iOS 27.
Джерело: macrumors