التخطي إلى المحتوى

«هل قتل ChatGPT ابنتي؟».. دعوى قضائية تلاحق OpenAI بعد هجوم مسلح على مدرسة كندية – أخبار السعودية

في خطوة قانونية عابرة للحدود، تحولت مأساة إطلاق نار داخل مدرسة كندية إلى معركة قانونية وصلت تداعياتها إلى داخل الولايات المتجدة، واضعة شركة OpenAI والذكاء الاصطناعي في قلب الاتهام بالمسؤولية عن أرواح البشر.

تعود جذور القضية إلى حادثة مروعة وقعت داخل مدرسة في بلدة «تامبلر ريدج» بمقاطعة كولومبيا البريطانية، حيث أصيبت الطفلة مايا جيبالا (12 عاماً) بجروح خطيرة، ضمن هجوم هز المجتمع المحلي وخلّف صدمة وطنية واسعة.

لكن المفاجأة الكبرى لم تكن في الحادثة ذاتها، بل فيما كشفته التحقيقات لاحقاً. فقد قررت عائلات الضحايا نقل المعركة إلى المحاكم الأمريكية، متهمة الشركة المطوّرة لتطبيق ChatGPT بالفشل الذريع في التحذير من «تفاعلات مقلقة» جرت بين المهاجم وروبوت الدردشة قبل وقوع المجزرة.

اتهامات بالقتل الخطأ

الدعوى التي يقودها المحامي جاي إيدلسون، لا تقتصر على تهمة الإهمال، بل تمتد لتشمل:

  • القتل الخطأ: نتيجة عدم إبلاغ السلطات بسلوك المهاجم العنيف عبر الإنترنت.
  • عيوب التصميم: اتهام النظام بأنه قدّم دعماً أو تشجيعاً غير مباشر للمهاجم.

ووصف إيدلسون ما جرى بأنه «دمار لمجتمع كامل»، مؤكداً أن التكنولوجيا لم تعد مجرد أداة، بل أصبحت طرفاً شريكاً في المسؤولية إذا فشلت في كبح جماح العنف.

في المقابل، جاء رد المدير التنفيذي لشركة OpenAI سام ألتمان، عبر رسالة اعتذار رسمية وُجّهت إلى أهالي الضحايا، أقر فيها بمرارة بعدم إبلاغ السلطات عن التفاعلات المشبوهة للمهاجم، وهو ما اعتبره قانونيون بمثابة «اعتراف ضمني» قد يغير مسار القضية تماماً.

ولا تتعلق هذه القضية بحادثة فردية، بل تطرح سؤالاً حاسماً سيعيد تعريف علاقة الإنسان بالتكنولوجيا في عام 2026: هل يمكن تحميل الذكاء الاصطناعي مسؤولية ما يفعله البشر؟

قد تشكّل هذه المحاكمة ومثيلاتها أساساً قانونياً يُجبر شركات التكنولوجيا على فرض رقابة صارمة وغير مسبوقة على محادثات ملايين المستخدمين، مما يضع مفهوم الخصوصية في مواجهة مباشرة مع الأمن العام.

للمزيد من المقالات

اضغط هنا

التعليقات

اترك تعليقاً