تقنية

تقوم شركة Texas AG بالتحقيق في Character.AI ومنصات أخرى بشأن مخاوف تتعلق بسلامة الأطفال

أطلق المدعي العام في تكساس كين باكستون يوم الخميس قرارًا تحقيق في Character.AI و14 منصة تقنية أخرى بشأن مخاوف خصوصية الأطفال وسلامتهم. وسيقوم التحقيق بتقييم ما إذا كانت Character.AI – والمنصات الأخرى التي تحظى بشعبية كبيرة لدى الشباب، بما في ذلك Reddit وInstagram وDiscord – تتوافق مع قوانين خصوصية وسلامة الأطفال في تكساس.

سيبحث التحقيق الذي تجريه باكستون، والذي غالبًا ما يكون صارمًا مع شركات التكنولوجيا، في ما إذا كانت هذه المنصات قد امتثلت لقانونين في ولاية تكساس: قانون تأمين الأطفال عبر الإنترنت من خلال تمكين الوالدين، أو قانون SCOPE، ​​وقانون خصوصية البيانات وأمنها في تكساس، أو DPSA.

تتطلب هذه القوانين من المنصات تزويد الآباء بالأدوات اللازمة لإدارة إعدادات الخصوصية لحسابات أطفالهم، وإلزام شركات التكنولوجيا بمتطلبات الموافقة الصارمة عند جمع البيانات عن القاصرين. يدعي باكستون أن هذين القانونين يمتدان إلى كيفية تفاعل القاصرين مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.

وقال باكستون في بيان صحفي: “تعد هذه التحقيقات خطوة حاسمة نحو ضمان امتثال وسائل التواصل الاجتماعي وشركات الذكاء الاصطناعي لقوانيننا المصممة لحماية الأطفال من الاستغلال والأذى”.

أصبحت شركة Character.AI، التي تتيح لك إعداد شخصيات chatbot مبتكرة تعمل بالذكاء الاصطناعي والتي يمكنك إرسال الرسائل النصية والدردشة معها، متورطة مؤخرًا في عدد من الدعاوى القضائية المتعلقة بسلامة الأطفال. سرعان ما انتشرت روبوتات الدردشة الخاصة بالشركة مع المستخدمين الأصغر سنًا، لكن العديد من الآباء زعموا في دعاوى قضائية أن روبوتات الدردشة الخاصة بـ Character.AI قدمت تعليقات غير مناسبة ومزعجة لأطفالهم.

تزعم إحدى الحالات في فلوريدا أن صبيًا يبلغ من العمر 14 عامًا انخرط في علاقة عاطفية مع روبوت محادثة يعمل بالذكاء الاصطناعي، و أخبره أنه كان لديه أفكار انتحارية في الأيام التي سبقت انتحاره. وفي حالة أخرى خارج ولاية تكساس، يُزعم أن إحدى روبوتات الدردشة التابعة لشركة Character.AI اقترحت يجب على المراهق المصاب بالتوحد أن يحاول تسميم عائلته. تزعم والدة أخرى في قضية تكساس أن إحدى روبوتات الدردشة التابعة لشركة Character.AI أخضعت ابنتها البالغة من العمر 11 عامًا لمحتوى جنسي على مدار العامين الماضيين.

“نحن نراجع حاليًا إعلان النائب العام. وقال متحدث باسم Character.AI في بيان لموقع TechCrunch: “كشركة، نحن نأخذ سلامة مستخدمينا على محمل الجد”. “نحن نرحب بالعمل مع الجهات التنظيمية، وقد أعلنا مؤخرًا أننا نطلق بعض الميزات المشار إليها في الإصدار بما في ذلك أدوات الرقابة الأبوية.”

طرحت شركة Character.AI يوم الخميس ميزات أمان جديدة تهدف إلى حماية المراهقين، قائلة إن هذه التحديثات ستحد من قدرة روبوتات الدردشة الخاصة بها على بدء محادثات رومانسية مع القاصرين. بدأت الشركة أيضًا في تدريب نموذج جديد خصيصًا للمستخدمين المراهقين في الشهر الماضي – وتأمل في يوم من الأيام أن يستخدم البالغون نموذجًا واحدًا على منصتها، بينما يستخدم القُصّر نموذجًا آخر.

هذه ليست سوى آخر تحديثات السلامة التي أعلنت عنها شركة Character.AI. في نفس الأسبوع الذي أصبحت فيه الدعوى القضائية في فلوريدا علنية، قامت الشركة قال وكانت تعمل على توسيع فريق الثقة والسلامة لديها، وقد قامت مؤخرًا بتعيين رئيس جديد للوحدة.

كما هو متوقع، تظهر المشكلات المتعلقة بمنصات الذكاء الاصطناعي المصاحبة مع تزايد شعبيتها. في العام الماضي، قال أندريسن هورويتز (a16z) في أ مواقع المدونةلقد رأت أن رفقة الذكاء الاصطناعي هي ركن مقوم بأقل من قيمته الحقيقية من الإنترنت الاستهلاكي الذي ستستثمر فيه أكثر. A16z مستثمر في Character.AI ويستمر في الاستثمار في شركات ناشئة أخرى في مجال الذكاء الاصطناعي، حيث دعم مؤخرًا شركة يريد مؤسسها إعادة إنشاء التكنولوجيا. من فيلم “هي”.

ولم تستجب Reddit وMeta وDiscord على الفور لطلبات التعليق.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى