
Компания уже провела переговоры с обеими организациями, обсуждая возможность использования сторонней языковой модели в качестве основы для работы Siri.
Обе компании разрабатывают версии своих ИИ-моделей, совместимые с системой Private Cloud Compute от Apple. В настоящее время Apple проводит тестирование, но окончательное решение о переходе на стороннюю модель пока не принято. По данным Bloomberg, предпочтение на данном этапе отдано Anthropic — ее ИИ лучше всего подходит для интеграции в Siri. Apple и Anthropic уже обсудили предварительные финансовые условия сотрудничества, однако запрос Anthropic — многомиллиардная ежегодная оплата с ростом суммы со временем — вынуждает Apple рассматривать и другие варианты, включая OpenAI.
Apple также разрабатывает собственную крупную языковую модель (LLM) для будущей версии Siri, однако компания давно сталкивается с трудностями в области искусственного интеллекта. На презентации WWDC в июне 2024 года были показаны новые функции Siri, запланированные для iPhone 16, но довести их до готовности в срок не удалось.
В марте стало известно, что запуск функций Apple Intelligence в Siri отложен до 2026 года. Это вызвало волну недовольства пользователей и привело к ряду судебных исков. Сейчас компания планирует добавить эти функции в обновлении iOS 26.
Разработка Siri на базе LLM ведется отдельно от персонализированных возможностей, которые появятся в iOS 26. Новая версия на основе LLM, по предварительным данным, будет представлена осенью 2026 года вместе с iOS 27.
Источник: macrumors