ميتا تعزز ضوابط الذكاء الاصطناعي لحماية المراهقين من محادثات غير آمنة

تعمل شركة "ميتا" على مراجعة أنظمة الذكاء الاصطناعي الخاصة بها، بهدف إضافة ضوابط جديدة لحماية المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة.
وأوضحت الشركة أنها ستفرض "حواجز حماية إضافية" لمنع المراهقين من التطرق إلى موضوعات حساسة، مثل إيذاء النفس، واضطرابات الأكل، والانتحار، أثناء محادثاتهم مع الروبوتات.
كما ستحد من وصولهم إلى بعض الشخصيات التي يصنعها المستخدمون داخل المنصة، والتي قد تستغل لإجراء حوارات غير ملائمة.
ويأتي هذا القرار بعد تقارير أثارت جدلا واسعا حول طبيعة تفاعلات روبوتات "ميتا" مع فئة المراهقين. إذ كشف تقرير لوكالة "رويترز" أن إحدى الوثائق الداخلية سمحت للروبوتات بخوض "محادثات حسية" مع قُصّر، قبل أن تُقر الشركة بالخطأ وتؤكد أنه يتعارض مع سياساتها.
وشددت "ميتا" على أنها بنت آليات حماية للمراهقين منذ البداية، وتواصل تطويرها بما يتماشى مع تطور تقنياتها، مشيرة إلى أن التحديثات الجديدة ستدرب الروبوتات على الامتناع عن التفاعل مع هذه الفئة في المواضيع الحساسة، والاكتفاء بتوجيههم إلى مصادر دعم متخصصة.
وأفادت الشركة أن هذه التحديثات ستطرح تدريجيا خلال الأسابيع المقبلة، وستشمل جميع المستخدمين المراهقين في الدول الناطقة بالإنجليزية.