في إطار التطوّر المتسارع لتطبيقات الذكاء الاصطناعي، تعتزم شركة آبل إجراء بعض التحسينات في مساعدها الصوتي “سيري” بالاستفادة من قدرات النماذج اللغوية الكبيرة LLMs، وفقًا لما ذكرته وكالة بلومبرغ الأمريكية.
وتهدف هذه الخطوة إلى تعزيز التحكم الصوتي، وتمكين المستخدمين من تنفيذ مهام محددة داخل التطبيقات عن طريق الأوامر الصوتية، مثل فتح المستندات، وإرسال رسائل البريد الإلكتروني وغيرها.
وأفاد تقرير بلومبرغ بأن النسخة الجديدة من “سيري” سوف تقتصر في البداية على تطبيقات آبل الرسمية، لكنها لن تكون متاحة في نظام iOS 18 القادم، ومن المحتمل صدورها كتحديث لاحق مطلع العام المقبل.
وستجعل آبل المساعد الصوتي “سيري” قادرًا على تحليل أنماط استخدام الأجهزة، وتفعيل الأوامر الصوتية المتماشية معها تلقائيًا.
ووفقًا للتقرير، سيدعم المساعد الصوتي “سيري” المئات من الأوامر الصوتية، لكنه لن يعالج سوى أمر واحد في كل مرة في المرحلة الأولى، على أن تطوره آبل لاحقًا لمعالجة عدة مهام ضمن طلب واحد.
ومن أمثلة الأوامر التي سيتيحها الإصدار القادم من سيري الجديد إرسال رسائل البريد الإلكتروني أو حذفها، والوصول إلى مواقع إنترنت محددة، وإرسال رابط موقع عبر البريد الإلكتروني، أو طلب تلخيص مقالة.
وعند تطوير خاصية معالجة المهام المتعددة، سيصبح مساعد “سيري” قادرًا على تلخيص اجتماع مسجل ثم إرساله كنص إلى شخص آخر عبر أمر صوتي واحد.
ولم يكشف التقرير عن نوع نموذج اللغة الكبير الذي تعتزم آبل الاستعانة به، لكن تتردد أنباء عن اتفاق محتمل مع OpenAI أو جوجل.
ومن المتوقع أن تعتمد آبل على معالجة العديد من أوامر الذكاء الاصطناعي في الأجهزة نفسها، مع الاستعانة بالحوسبة السحابية عبر خوادمها للمهام الأكثر تعقيدًا.
يذكر أن مؤتمر WWDC 2024 الذي ستقيمه آبل خلال المدة الممتدة من 10 إلى 14 يونيو المقبل، قد يشهد الكشف عن المزيد من التفاصيل حول بشأن التحسينات المرتبطة بالذكاء الاصطناعي.