
أعلنت شركة ميتا أنها تعمل على إعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها، مع إضافة مستويات جديدة من الضوابط لحماية المراهقين أثناء استخدام روبوتات الدردشة التفاعلية، ويهدف هذا التحديث إلى منع القصر من الانخراط في محادثات قد تكون حساسة أو غير ملائمة، بما يتماشى مع السياسات التي تتبناها الشركة لحماية الفئات العمرية الأصغر.
ميتا تعيد تدريب أنظمة الذكاء الاصطناعي
أوضحت ميتا أن التحديثات المرتقبة ستتضمن ما أسمته “حواجز حماية إضافية” تمنع المراهقين من الدخول في نقاشات مرتبطة بموضوعات عالية الخطورة مثل إيذاء النفس، اضطرابات الأكل أو حتى الانتحار، كما سيتم تقييد الوصول إلى بعض الشخصيات الافتراضية التي يبتكرها المستخدمون داخل المنصة، منعا لإجراء حوارات قد تتعارض مع معايير السلامة الخاصة بالمراهقين.
تأتي هذه الخطوة على خلفية تقارير أثارت جدل واسع خلال الأشهر الماضية بشأن طبيعة تفاعل روبوتات ميتا مع المراهقين، وقد كشفت وكالة رويترز في تقرير مطلع أغسطس عن وثيقة داخلية تسمح للروبوتات بالدخول في محادثات “حسية” مع مستخدمين قصر، وهو ما اعتبر خطأ تنظيمي خطير، ورغم أن ميتا سارعت إلى تصحيح الأمر والتأكيد على أنه يتعارض مع سياساتها، إلا أن الجدل سلط الضوء على ثغرات في أنظمة الحماية.
تصريح رسمي من شركة ميتا
أكدت ستيفاني أوتواي المتحدثة باسم ميتا، أن الشركة وضعت آليات أمان للمراهقين منذ إطلاق تقنيات الذكاء الاصطناعي، لكنها تسعى حاليا إلى تطويرها بشكل أعمق وأكثر فعالية، وأضافت أن التعديلات الجديدة ستضمن تدريب الروبوتات على تجنب الانخراط في هذه النقاشات تماما، مع الاكتفاء بتوجيه المستخدمين نحو مصادر متخصصة في الدعم النفسي أو مراكز المساعدة المعتمدة.
بحسب الشركة، ستبدأ التحديثات في الظهور تدريجيا خلال الأسابيع القادمة، لتشمل جميع المراهقين في الدول الناطقة باللغة الإنجليزية كبداية، ولم تحدد ميتا بعد موعد تعميم هذه الإجراءات على باقي اللغات، الأمر الذي يترك تساؤلات حول مدى شمولية الحماية للمستخدمين عالميا.
يرى خبراء التكنولوجيا أن هذه الإجراءات قد تحدث تغيير جوهري في كيفية تفاعل المراهقين مع منصات ميتا، إذ ستجعل التجربة أكثر أمان من ذي قبل، ومع ذلك، يشير محللون إلى أن هذه السياسات قد تفتح باب النقاش حول حدود الرقابة المفروضة على التفاعل الرقمي.