تقنية

تريد Google بيع نظارات Project Astra AR هذه يومًا ما، لكن لن يكون الأمر كذلك اليوم

تعمل Google على رفع الستار ببطء عن رؤيتها لتبيع لك يومًا ما نظارات ذات واقع معزز وقدرات الذكاء الاصطناعي متعددة الوسائط. ومع ذلك، فإن خطط الشركة لهذه النظارات لا تزال ضبابية.

في هذه المرحلة، رأينا العديد من العروض التوضيحية لمشروع Astra – وهو جهد DeepMind لبناء تطبيقات متعددة الوسائط في الوقت الفعلي ووكلاء باستخدام الذكاء الاصطناعي – يعملون على زوج غامض من النظارات النموذجية. وقالت جوجل يوم الأربعاء إنها ستطلق تلك النظارات النموذجية، المسلحة بقدرات الذكاء الاصطناعي والواقع المعزز، لمجموعة صغيرة من المستخدمين المختارين لاختبارها في العالم الحقيقي.

وقالت جوجل يوم الخميس إن النموذج الأولي لنظارات Project Astra سيعمل على نظام Android XR، وهو نظام التشغيل الجديد من Google للحوسبة القائمة على الرؤية. لقد بدأ الآن السماح لصانعي الأجهزة والمطورين ببناء أنواع مختلفة من النظارات وسماعات الرأس والتجارب حول نظام التشغيل هذا.

عرض توضيحي لميزة الترجمة من Google على نظاراتها النموذجية.اعتمادات الصورة:جوجل

تبدو النظارات رائعة، ولكن من المهم أن تتذكر أنها في الأساس عبارة عن برامج بخارية – فلا يزال Google ليس لديه أي شيء ملموس لمشاركته حول المنتج الفعلي أو متى سيتم إصداره. ومع ذلك، يبدو بالتأكيد أن الشركة تريد إطلاق هذه النظارات في وقت ما، حيث أطلقت على النظارات الذكية وسماعات الرأس اسم “الجيل القادم من الحوسبة” في بيان صحفي. واليوم، تعمل Google على تطوير Project Astra وAndroid XR بحيث تصبح هذه النظارات منتجًا فعليًا في يوم من الأيام.

شاركت Google أيضًا عرضًا تجريبيًا جديدًا يوضح كيف يمكن لنظاراتها النموذجية استخدام تقنية Project Astra وAR للقيام بأشياء مثل ترجمة الملصقات أمامك، أو تذكر المكان الذي تركت فيه الأشياء في جميع أنحاء المنزل، أو السماح لك بقراءة النصوص دون إخراج هاتفك.

“تعد النظارات أحد أقوى عوامل الشكل نظرًا لكونها لا تستخدم اليدين؛ لأنه يمكن ارتداؤه بسهولة. قال بيبو شو، قائد منتج DeepMind، في مقابلة مع TechCrunch في مقر Google في ماونتن فيو: “في كل مكان تذهب إليه، ترى ما تراه”. “إنها مثالية لأسترا.”

لقطة مقرّبة لنظارات Google النموذجية.اعتمادات الصورة:جوجل

صرح متحدث باسم Google لـ TechCrunch أنه ليس لديهم جدول زمني لإطلاق المستهلك لهذا النموذج الأولي، ولا تشارك الشركة الكثير من التفاصيل حول تقنية الواقع المعزز في النظارات، أو تكلفتها، أو كيف يعمل كل هذا بالفعل.

لكن جوجل شاركت على الأقل رؤيتها لنظارات الواقع المعزز والذكاء الاصطناعي في بيان صحفي يوم الخميس:

سيدعم Android XR أيضًا النظارات للمساعدة طوال اليوم في المستقبل. نريد أن يكون هناك الكثير من الخيارات للنظارات الأنيقة والمريحة التي ستحب ارتدائها كل يوم والتي تعمل بسلاسة مع أجهزة Android الأخرى. ستعمل النظارات التي تعمل بنظام Android XR على التخلص من قوة Gemini بنقرة واحدة، مما يوفر معلومات مفيدة عندما تحتاج إليها مباشرة – مثل الاتجاهات أو الترجمات أو ملخصات الرسائل دون الوصول إلى هاتفك. كل ذلك يقع ضمن خط بصرك، أو مباشرة في أذنك.

عرض توضيحي لنظارات جوجل الأولية.اعتمادات الصورة:جوجل

شاركت العديد من شركات التكنولوجيا رؤى سامية مماثلة لنظارات الواقع المعزز في الأشهر الأخيرة. عرضت Meta مؤخرًا النموذج الأولي لنظارات Orion AR، والتي ليس لها أيضًا تاريخ إطلاق للمستهلك. تتوفر نظارة Snap's Spectacles للشراء للمطورين، لكنها لا تزال ليست منتجًا استهلاكيًا أيضًا.

ويبدو أن الميزة التي تتمتع بها Google على جميع منافسيها هي Project Astra، الذي ستطلقه كتطبيق لعدد قليل من مختبري النسخة التجريبية قريبًا. لقد أتيحت لي الفرصة لتجربة وكيل الذكاء الاصطناعي متعدد الوسائط – وإن كان كتطبيق هاتف وليس كنظارة – في وقت سابق من هذا الأسبوع، وعلى الرغم من أنه غير متاح لاستخدام المستهلك اليوم، يمكنني أن أؤكد أنه يعمل بشكل جيد.

لقد تجولت في إحدى المكتبات في حرم جوجل، ووجهت كاميرا الهاتف نحو أشياء مختلفة أثناء التحدث إلى أسترا. كان الوكيل قادرًا على معالجة صوتي والفيديو في وقت واحد، مما سمح لي بطرح أسئلة حول ما كنت أراه والحصول على الإجابات في الوقت الفعلي. انتقلت من غلاف الكتاب إلى غلاف الكتاب وسرعان ما أعطتني أسترا ملخصات للمؤلفين والكتب التي كنت أبحث عنها.

يعمل Project Astra من خلال بث الصور المحيطة بك، بمعدل إطار واحد في الثانية، إلى نموذج الذكاء الاصطناعي للمعالجة في الوقت الفعلي. وأثناء حدوث ذلك، فإنه يعالج صوتك أيضًا أثناء التحدث. تقول Google DeepMind إنها لا تقوم بتدريب نماذجها على أي من بيانات المستخدم التي تجمعها، لكن نموذج الذكاء الاصطناعي سيتذكر محيطك ومحادثاتك لمدة 10 دقائق. يسمح ذلك للذكاء الاصطناعي بالرجوع إلى شيء رأيته أو قلته سابقًا.

كما أظهر لي بعض أعضاء Google DeepMind كيف يمكن لـ Astra قراءة شاشة هاتفك، على غرار الطريقة التي تفهم بها المنظر من خلال كاميرا الهاتف. يستطيع الذكاء الاصطناعي تلخيص قائمة Airbnb بسرعة، ويستخدم خرائط Google لإظهار الوجهات القريبة، وينفذ عمليات بحث Google بناءً على الأشياء التي يراها على شاشة الهاتف.

يعد استخدام Project Astra على هاتفك أمرًا مثيرًا للإعجاب، ومن المحتمل أن يكون إشارة لما هو قادم لتطبيقات الذكاء الاصطناعي. قامت OpenAI أيضًا بعرض قدرات رؤية GPT-4o، والتي تشبه Project Astra والتي تم الإعلان عنها أيضًا لإصدارها قريبًا. يمكن لهذه التطبيقات أن تجعل مساعدي الذكاء الاصطناعي أكثر فائدة بكثير من خلال منحهم إمكانات تتجاوز نطاق الدردشة النصية.

عندما تستخدم Project Astra على الهاتف، فمن الواضح أن نموذج الذكاء الاصطناعي سيكون مثاليًا حقًا على زوج من النظارات. يبدو أن جوجل لديها نفس الفكرة، ولكن قد يستغرق الأمر بعض الوقت لجعل ذلك حقيقة.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى