تقنية

وتقول جوجل إن العملاء يمكنهم استخدام الذكاء الاصطناعي الخاص بها في المجالات “عالية الخطورة”، طالما كان هناك إشراف بشري

لقد غيرت جوجل شروطها لتوضيح أنه يمكن للعملاء نشر أدوات الذكاء الاصطناعي التوليدية الخاصة بها لاتخاذ “قرارات تلقائية” في المجالات “عالية المخاطر”، مثل الرعاية الصحية، طالما كان هناك إنسان في الحلقة.

وفقا للشركة تم تحديثه بموجب سياسة الاستخدام المحظور للذكاء الاصطناعي، التي نُشرت يوم الثلاثاء، يجوز للعملاء استخدام الذكاء الاصطناعي التوليدي من Google لاتخاذ “قرارات تلقائية” يمكن أن يكون لها “تأثير ضار مادي على الحقوق الفردية”. شريطة أن يشرف الإنسان في بعض القدرات، يمكن للعملاء استخدام الذكاء الاصطناعي التوليدي من جوجل لاتخاذ قرارات بشأن التوظيف، والإسكان، والتأمين، والرعاية الاجتماعية، وغيرها من المجالات “عالية المخاطر”.

في سياق الذكاء الاصطناعي، تشير القرارات الآلية إلى القرارات التي يتخذها نظام الذكاء الاصطناعي بناءً على البيانات الواقعية والمستنتجة. قد يتخذ النظام قرارًا تلقائيًا بمنح قرض، على سبيل المثال، أو فحص مرشح للوظيفة.

ال سابق تتضمن مسودة شروط Google فرض حظر شامل على اتخاذ القرارات الآلية عالية المخاطر حيث تتضمن الذكاء الاصطناعي التوليدي للشركة. لكن جوجل تخبر عملاء TechCrunch أنه يمكنهم دائمًا استخدام الذكاء الاصطناعي التوليدي الخاص بها لاتخاذ القرارات الآلية، حتى بالنسبة للتطبيقات عالية المخاطر، طالما كان الإنسان يشرف عليها.

وقال متحدث باسم جوجل عندما تم الاتصال به للتعليق عبر البريد الإلكتروني: “كان شرط الإشراف البشري دائمًا في سياستنا، بالنسبة لجميع النطاقات عالية المخاطر”. “[W]نحن نعيد تصنيف بعض العناصر [in our terms] وطرح بعض الأمثلة بشكل أكثر وضوحًا لتكون أكثر وضوحًا للمستخدمين.

لدى أكبر منافسي جوجل في مجال الذكاء الاصطناعي، OpenAI وAnthropic، قواعد أكثر صرامة تحكم استخدام الذكاء الاصطناعي الخاص بهم في اتخاذ القرارات الآلية عالية المخاطر. على سبيل المثال، تحظر شركة OpenAI استخدام خدماتها في اتخاذ القرارات الآلية المتعلقة بالائتمان والتوظيف والإسكان والتعليم والتقييم الاجتماعي والتأمين. تسمح Anthropic باستخدام الذكاء الاصطناعي الخاص بها في القانون، والتأمين، والرعاية الصحية، وغيرها من المجالات عالية المخاطر لاتخاذ القرارات الآلية، ولكن فقط تحت إشراف “محترف مؤهل” – ويتطلب من العملاء الكشف عن أنهم يستخدمون الذكاء الاصطناعي لهذا الغرض. غاية.

لقد اجتذب الذكاء الاصطناعي الذي يتخذ قرارات آلية تؤثر على الأفراد تدقيقًا من جانب الهيئات التنظيمية، الذين أعربوا عن مخاوفهم بشأن إمكانية تحيز التكنولوجيا للنتائج. تظهر الدراساتعلى سبيل المثال، يمكن أن يؤدي استخدام الذكاء الاصطناعي لاتخاذ قرارات مثل الموافقة على طلبات الائتمان والرهن العقاري إلى إدامة التمييز التاريخي.

قامت منظمة هيومن رايتس ووتش غير الربحية بذلك مُسَمًّى لحظر أنظمة “التسجيل الاجتماعي” على وجه الخصوص، والتي تقول المنظمة إنها تهدد بتعطيل وصول الأشخاص إلى دعم الضمان الاجتماعي، وتعريض خصوصيتهم للخطر، وتصويرهم بطرق ضارة.

وبموجب قانون الذكاء الاصطناعي في الاتحاد الأوروبي، فإن أنظمة الذكاء الاصطناعي عالية المخاطر، بما في ذلك تلك التي تتخذ قرارات الائتمان الفردي والتوظيف، تواجه أكبر قدر من الرقابة. ويجب على مقدمي هذه الأنظمة التسجيل في قاعدة بيانات، وتنفيذ إدارة الجودة والمخاطر، وتوظيف مشرفين بشريين، والإبلاغ عن الحوادث إلى السلطات المختصة، من بين متطلبات أخرى.

وفي الولايات المتحدة، أقرت ولاية كولورادو مؤخرا قانونا يلزم مطوري الذكاء الاصطناعي بالكشف عن معلومات حول أنظمة الذكاء الاصطناعي “عالية المخاطر”، ونشر بيانات تلخص قدرات الأنظمة وقيودها. وفي الوقت نفسه، تحظر مدينة نيويورك على أصحاب العمل استخدام الأدوات الآلية لفحص المرشحين لاتخاذ قرارات التوظيف ما لم تكن الأداة خاضعة لتدقيق متحيز خلال العام السابق.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى