التخطي إلى المحتوى

بعد غرامة 375 مليون دولار.. ميتا تعزز حماية المراهقين بأداة مراقبة الذكاء الاصطناعي – أخبار السعودية

أعلنت شركة ميتا الشركة الأم لفيسبوك وإنستغرام وماسنجر إطلاق أداة جديدة تتيح للآباء مراقبة المواضيع التي يناقشها أبناؤهم المراهقون مع روبوتات الدردشة الذكية التابعة لها.

وكانت ميتا توفر بالفعل تنبيهات فورية للآباء عندما يتحدث المراهقون عن مواضيع حساسة مثل الانتحار أو إيذاء النفس، لكن الأداة الجديدة تقدم نظرة أوسع وأكثر شمولاً على طبيعة التفاعلات مع الذكاء الاصطناعي.

وبدأت الخدمة في 23 أبريل، حيث يستطيع الآباء الذين يستخدمون أدوات الإشراف الأبوي على حسابات المراهقين الوصول إلى علامة تبويب جديدة باسم «Insights» داخل مركز الإشراف، وتحتوي هذه العلامة على قسم بعنوان «تفاعلاتهم مع الذكاء الاصطناعي»، يعرض قائمة بالمواضيع الرئيسية التي ناقشها الابن أو الابنة مع Meta AI خلال الأيام السبعة الماضية.

وتشمل الفئات الرئيسية: المدرسة، السفر، الكتابة، الترفيه، نمط الحياة، الصحة والعافية، وتحت كل فئة توجد مواضيع فرعية، مثل الصحة النفسية والجسدية تحت قسم العافية، أو الأزياء والطعام تحت نمط الحياة. ولا تظهر الأداة محتوى المحادثات الكامل، بل المواضيع العامة فقط.

وأكدت ميتا أن الأداة متاحة حالياً للآباء في الولايات المتحدة، المملكة المتحدة، أستراليا، كندا، والبرازيل، على أن تُطرح نسخة عالمية خلال الأسابيع المقبلة.

تأتي هذه الخطوة ضمن جهود ميتا المستمرة لتعزيز سلامة المراهقين في عصر الذكاء الاصطناعي، خاصة بعد إطلاق Meta AI chatbot على منصاتها.

تعتمد الخاصية على حسابات Teen Accounts المخصصة للمراهقين (من 13 إلى 17 عاماً)، والتي تتضمن إعدادات خصوصية ومحتوى أكثر صرامة بشكل افتراضي.

وأعلنت الشركة بالتزامن عن تشكيل «مجلس خبراء العافية بالذكاء الاصطناعي» وهو مجموعة من الخبراء في الصحة النفسية والتنمية الشبابية والذكاء الاصطناعي الأخلاقي من جامعات مثل ميشيغان وتكساس وجنوب كاليفورنيا، ومنظمات متخصصة في منع الانتحار.

ويأتي الإعلان بعد أسابيع قليلة من حكم قضائي في نيو مكسيكو ألزم ميتا بدفع 375 مليون دولار كتعويضات، بعد إدانتها بمخالفة قوانين حماية المستهلك بسبب فشلها في منع الاستغلال الجنسي للأطفال على منصاتها.

كما شهدت الشركة قضايا أخرى تتعلق بتأثير وسائل التواصل على الصحة النفسية للمراهقين، مثل حكم كاليفورنيا الذي منح امرأة 6 ملايين دولار تعويضاً بسبب الإدمان والاكتئاب الناتج عن استخدام تطبيقاتها منذ الطفولة.

Meta, the parent company of Facebook, Instagram, and Messenger, has announced the launch of a new tool that allows parents to monitor the topics their teenage children discuss with its smart chatbots.

Meta had already provided parents with instant alerts when teenagers talked about sensitive topics such as suicide or self-harm, but the new tool offers a broader and more comprehensive view of the nature of interactions with artificial intelligence.

The service began on April 23, allowing parents who use parental supervision tools on their teenagers’ accounts to access a new tab called “Insights” within the supervision center. This tab contains a section titled “Their Interactions with AI,” which displays a list of the main topics discussed by the son or daughter with Meta AI over the past seven days.

The main categories include: school, travel, writing, entertainment, lifestyle, health and wellness, and under each category, there are subtopics, such as mental and physical health under the wellness section, or fashion and food under lifestyle. The tool does not show the complete content of the conversations, only the general topics.

Meta confirmed that the tool is currently available for parents in the United States, the United Kingdom, Australia, Canada, and Brazil, with a global version set to be released in the coming weeks.

This move is part of Meta’s ongoing efforts to enhance the safety of teenagers in the age of artificial intelligence, especially following the launch of the Meta AI chatbot on its platforms.

The feature relies on Teen Accounts designed for teenagers (ages 13 to 17), which include stricter privacy settings and content by default.

The company also announced the formation of the “AI Wellness Expert Council,” a group of experts in mental health, youth development, and ethical artificial intelligence from universities such as Michigan, Texas, and Southern California, as well as organizations specializing in suicide prevention.

This announcement comes just a few weeks after a court ruling in New Mexico that required Meta to pay $375 million in damages after being found guilty of violating consumer protection laws due to its failure to prevent child sexual exploitation on its platforms.

The company has also faced other lawsuits related to the impact of social media on teenagers’ mental health, such as a California ruling that awarded a woman $6 million in damages for addiction and depression resulting from the use of its applications since childhood.

للمزيد من المقالات

اضغط هنا

التعليقات

اترك تعليقاً