تقنية

تقوم OpenAI بتمويل البحث في “أخلاق الذكاء الاصطناعي”

تقوم OpenAI بتمويل البحث الأكاديمي في الخوارزميات التي يمكنها التنبؤ بالأحكام الأخلاقية للبشر.

في ملف مقدم إلى مصلحة الضرائب الأمريكية، كشفت شركة OpenAI Inc.، وهي منظمة غير ربحية تابعة لـ OpenAI، أنها منحت منحة لباحثين من جامعة ديوك لمشروع بعنوان “أخلاقيات الذكاء الاصطناعي البحثي”. تم الاتصال بالمتحدث الرسمي باسم OpenAI للتعليق، وأشار إلى أ بيان صحفي مما يشير إلى أن الجائزة جزء من منحة أكبر مدتها ثلاث سنوات بقيمة مليون دولار لأساتذة جامعة ديوك الذين يدرسون “صنع الذكاء الاصطناعي الأخلاقي“.

لا يُعرف الكثير عن هذا البحث “الأخلاقي” الذي تموله OpenAI، بخلاف حقيقة أن المنحة تنتهي في عام 2025. وقال الباحث الرئيسي في الدراسة، والتر سينوت أرمسترونج، أستاذ الأخلاق العملية في جامعة ديوك، لـ TechCrunch عبر البريد الإلكتروني إنه “لن يفعل ذلك”. تكون قادرة على التحدث “عن العمل.

أنتجت سينوت أرمسترونج والباحثة المشاركة في المشروع، جانا بورج، العديد من الدراسات – ودراسة كتاب – حول قدرة الذكاء الاصطناعي على العمل بمثابة “نظام تحديد المواقع العالمي الأخلاقي” لمساعدة البشر على إصدار أحكام أفضل. كجزء من فرق أكبر، لقد فعلوا ذلك مخلوق خوارزمية “متوافقة أخلاقياً” للمساعدة في تحديد من يتلقى التبرعات بالكلى، و درس في أي السيناريوهات يفضل الناس أن يتخذ الذكاء الاصطناعي قرارات أخلاقية؟

ووفقا للبيان الصحفي، فإن الهدف من العمل الممول من OpenAI هو تدريب الخوارزميات على “التنبؤ بالأحكام الأخلاقية البشرية” في السيناريوهات التي تنطوي على صراعات “من بين السمات ذات الصلة أخلاقيا في الطب والقانون والأعمال”.

ولكن ليس من الواضح على الإطلاق أن مفهومًا دقيقًا مثل الأخلاق هو في متناول تكنولوجيا اليوم.

في عام 2021، قام معهد Allen للذكاء الاصطناعي غير الربحي ببناء أداة تسمى Ask Delphi والتي كانت تهدف إلى تقديم توصيات سليمة من الناحية الأخلاقية. لقد حكم على المعضلات الأخلاقية الأساسية بشكل جيد بما فيه الكفاية – على سبيل المثال، “علم” الروبوت أن الغش في الامتحان كان خطأ. لكن إعادة صياغة الأسئلة وإعادة صياغتها بشكل طفيف كانت كافية لجعل دلفي توافق على أي شيء تقريبًا، بما في ذلك خنق الرضع.

ويتعلق السبب بكيفية عمل أنظمة الذكاء الاصطناعي الحديثة.

نماذج التعلم الآلي هي آلات إحصائية. ومن خلال تدريبهم على الكثير من الأمثلة من جميع أنحاء الويب، يتعلمون الأنماط الموجودة في تلك الأمثلة لإجراء تنبؤات، مثل عبارة “لمن” غالبًا ما تسبق عبارة “قد يهمني الأمر”.

ليس لدى الذكاء الاصطناعي تقدير للمفاهيم الأخلاقية، ولا فهم للمنطق والعاطفة التي تلعب دوراً في عملية صنع القرار الأخلاقي. ولهذا السبب يميل الذكاء الاصطناعي إلى تكرار قيم الدول الغربية والمتعلمة والصناعية، حيث تهيمن المقالات التي تؤيد وجهات النظر هذه على الويب، وبالتالي على بيانات تدريب الذكاء الاصطناعي.

ليس من المستغرب أن لا يتم التعبير عن قيم العديد من الأشخاص في الإجابات التي يقدمها الذكاء الاصطناعي، خاصة إذا كان هؤلاء الأشخاص لا يساهمون في مجموعات تدريب الذكاء الاصطناعي عن طريق النشر عبر الإنترنت. ويستوعب الذكاء الاصطناعي مجموعة من التحيزات التي تتجاوز التوجه الغربي. دلفي قال أن كونك مستقيمًا هو “مقبول أخلاقياً” أكثر من كونك مثليًا.

إن التحدي الذي يواجه OpenAI – والباحثين الذين يدعمونهم – أصبح أكثر صعوبة بسبب الذاتية المتأصلة في الأخلاق. لقد ناقش الفلاسفة مزايا النظريات الأخلاقية المختلفة لآلاف السنين، ولا يوجد إطار قابل للتطبيق عالميًا في الأفق.

كلود تفضل الكانطية (أي التركيز على القواعد الأخلاقية المطلقة)، في حين يميل ChatGPT كل ذلك قليلا النفعية (إعطاء الأولوية لأكبر قدر من الخير لأكبر عدد من الناس). هل أحدهما متفوق على الآخر؟ ذلك يعتمد على من تسأل.

يجب على الخوارزمية للتنبؤ بالأحكام الأخلاقية للبشر أن تأخذ كل هذا في الاعتبار. وهذا أمر صعب للغاية يجب تجاوزه، على افتراض أن مثل هذه الخوارزمية ممكنة في المقام الأول.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى