الأربعاء، 12 مارس 2025 03:47 ص

عن تحديات الشخصية القانونية.. من يتحمل المسئولية الجنائية في جرائم الذكاء الاصطناعي؟.. السعودية منحت الجنسية للريبوت "صوفيا".. وأوروبا اعتمدت نص أن أنظمة الذكاء الاصطناعي ليس لها شخصية قانونية ولا ضمير إنساني

عن تحديات الشخصية القانونية.. من يتحمل المسئولية الجنائية في جرائم الذكاء الاصطناعي؟.. السعودية منحت الجنسية للريبوت "صوفيا".. وأوروبا اعتمدت نص أن أنظمة الذكاء الاصطناعي ليس لها شخصية قانونية ولا ضمير إنساني المسئولية الجنائية في جرائم الذكاء الاصطناعي
الثلاثاء، 11 مارس 2025 09:00 ص
كتب علاء رضوان

الأنظمة الذكية فرضت أنماطاً وتحديات مستحدثة أخذت طابع الأولوية في الزمن المعاصر والتي تشكل مصدراً للأمال وبذات الوقت مصدراً للتهديد، كما هو الحال في مسألة الأطر القانونية للذكاء الاصطناعي، وأهم تلك التحديات المتمثلة في مسألة منح الذكاء الاصطناعي الشخصية القانونية، ومنها التحديات الأخلاقية، وفي جانب المسؤولية القانونية، فكل ما سبق محل خلاف شديد في الأوساط القانونية والبرلمانية، سيما أن تلك الأنظمة تنطوي على ظواهر غير مؤكدة لا يمكن التنبؤ بها، خاصة مع ظهور الذكاء التلقائي (spontaneous intelligence).

 

إذ نتطلع إلى الاستراتيجيات والنهج المحتملة التي تنطوي على تطوير أطر قانونية واضحة، من خلال التعاون بين الخبراء القانونيين والتقنيين، تطوير المبادئ التوجيهية الأخلاقية، وتعزيز الوعي العام التعليم، والتعاون الدولي، وبالرغم من كل التحديات إلا أنه يجب الاستجابة لتلك المستجدات رغم المخاطر التي قد تكون متأصلة ونوعية عبر المزيد من البحث لفهم الآثار والعواقب المحتملة لمنح الشخصية القانونية. 

 

جدتل

 

من يتحمل المسؤولية في جرائم الذكاء الاصطناعي؟

 

في التقرير التالى، يلقى "برلماني" الضوء على تحديات  الشخصية القانونية للذكاء الاصطناعي فى إطار المسؤولية الجنائية، فلقد تسبب صعود الذكاء الاصطناعي في إثارة الكثير من الإثارة والنقاش حول قدراته الثورية، حيث يمكن للذكاء الاصطناعي أن يُظهر قدرات شبيهة بالإنسان مثل التفكير والتعلم والتخطيط والإبداع، وفي مجال الذكاء الاصطناعي، تتنافس شركات التكنولوجيا على هيمنته بينما يتسابق صناع السياسات لتنظيم "وضعه القانوني"، حيث يعد تحديد الشخصية القانونية للآلات الذكية أمرًا بالغ الأهمية بسبب التقدم التكنولوجي السريع – بحسب أستاذ القانون الجنائى والمحامى الدكتور كريم ملازم.

 

في البداية - إن أحد الأهداف الأساسية للقانون هو تنظيم العلاقة بين الأفراد في المجتمع، وهنا، يشير مصطلح "الفرد" إلى الشخص القانوني، فالشخص القانوني، وفقًا لسالموند، هو: "أي كائن يعتبره القانون قادرًا على الحقوق أو الواجبات، أي كائن قادر كشخص، سواء كان إنسانًا أم لا...."، وعلاوة على ذلك، شرح "جراي" في كتابه "طبيعة القانون ومصادره" مفهوم الشخص القانوني باعتباره "كيانًا يمكن أن تُنسب إليه حقوق وواجبات"، و "الشخص" في القانون هو أي كائن قادر على حمل حق أو واجب، سواء كان إنسانًا أم لا – وفقا لـ"ملازم".  

 

ووئئئ

 

الشخصية القانونية لا تمنح فقط للكائنات الطبيعية

 

ومن ثم، فمن المهم أن نلاحظ أن الشخصية القانونية لا تمنح فقط للكائنات الطبيعية، بل وأيضاً للكيانات غير الحية في ظروف معينة، ويمكن منح الشخصية القانونية للكيان غير الحي إذا تم قبول شخصيته الاصطناعية على أنها حقيقية في نظر القانون - ومع ذلك - وفي مجال الذكاء الاصطناعي، أدت قضية الشخصية القانونية إلى مناقشات مستمرة بين المشرعين، حيث إن الأسئلة المحيطة بالشخصية القانونية للذكاء الاصطناعي معقدة ومتعددة الأوجه، وتحديد الشخصية القانونية للذكاء الاصطناعي أمر بالغ الأهمية للتغلب على التعقيدات القانونية المستقبلية – الكلام لـ"ملازم".

 

تطور الشخصية القانونية في مواجهة غير البشر

 

مع ظهور الثورة الصناعية الرابعة، أصبح السؤال حول ما إذا كان يجب منح الشخصية القانونية للآلات الذكية مثل الروبوتات أمرًا بالغ الأهمية، وتُعرف أيضًا باسم الصناعة ( 4.0)، وهي المرحلة التالية في التحول الرقمي التي يقودها التفاعل بين الإنسان والآلة، والتحسينات في الروبوتات، والآلات ذاتية التعلم، ولقد حدثت تطورات منذ أن كان يُعتقد أن الذكاء الاصطناعي هو المستقبل، ففي عام 2017، حصلت الروبوت الشبيهة بالإنسان صوفيا التي طورتها شركة هانسون روبوتيكس على الجنسية في المملكة العربية السعودية - ومع ذلك - تجاهلت دول مثل أوروبا فكرة منح الوضع القانوني للروبوتات، وتم اعتماد قرار ينص على أن " أنظمة الذكاء الاصطناعي ليس لها شخصية قانونية ولا ضمير إنساني" – طبقا لـ"ملازم". 

 

ززس

 

ومع الطبيعة المتطورة للتكنولوجيا، فإن القرار الذي اتخذته أوروبا غير مناسب، وفي الوقت الحاضر، يتم استخدام الذكاء الاصطناعي في جوانب مختلفة من حياة الإنسان، ومن قبيل الاستخدامات الصغيرة مثل برامج الدردشة المساعدة في الملاحة إلى الاستخدامات التي قد تسبب انتهاكات جسيمة لحقوق الإنسان مثل أنظمة الأسلحة المستقلة – هكذا يقول أستاذ القانون الجنائى. 

 

مسألة الذكاء الاصطناعي   

 

ففي أوكرانيا، زُعم أن موسكو نشرت ذخيرة متسكعة مدعمة بالذكاء الاصطناعي، بينما استخدمت كييف طائرات بدون طيار من طراز Bayraktar TB2، التي تتمتع بقدرات مستقلة - علاوة على ذلك - تستثمر بريطانيا والصين والولايات المتحدة الأمريكية وأستراليا بكثافة في تطوير أنظمة الأسلحة المستقلة القاتلة (LAWS)، حيث إن النظر في هذا الاستخدام الواسع النطاق لتكنولوجيا الذكاء الاصطناعي التي توفر وضعًا حتميًا للذكاء الاصطناعي هو حاجة الساعة.

 
ححؤلا
 

من الصعب تحميل الذكاء الاصطناعي مسؤولية أخطائه، سواء كانت مدنية أو جنائية، ويمكن الإجابة على المعضلة التي تحيط بها التناقضات المختلفة من خلال استكشاف المنطقة الرمادية، حيث تلتقي مبادئ قانون الملكية الفكرية والقانون المدني والقانون الجنائي والقانون الدستوري، إلى جانب بعض وجهات النظر الأخلاقية المتناثرة فيها.

 

يقدم الذكاء الاصطناعي تحديًا رباعيًا:

 

أ) الخطر الجسدي أو الضرر المادي نتيجة لحادث أو عطل

 

ب) مخاطر الأمن السيبراني الناجمة عن فقدان السيطرة على نظام قائم على الذكاء الاصطناعي

 

ج) خطر المراقبة وانتهاك الخصوصية

 

د) مشكلة الصندوق الأسود، والتي توضح الطبيعة غير المؤكدة لعملية اتخاذ القرار في كيان الذكاء الاصطناعي.

 

ملحوظة: قبل التطرق إلى المسؤولية الجنائية المحتملة، من المهم أن نفهم معضلة "الصندوق الأسود". 

 

ججرررر

 

مشكلة الصندوق الأسود

 

هناك 3 مكونات للتعلم الآلي:

 

أ) خوارزمية أو مجموعة من الخوارزميات،

 

ب) بيانات التدريب،

 

ج) نموذج.

 

يمكن إخفاء أي من المكونات المذكورة أعلاه في صندوق أسود يوفر الأمان للأجزاء الأساسية لنظام التعلم الآلي، حيث تحدث معضلة الصندوق الأسود عندما لا يتمكن المرء من فحص كود النظام أو المنطق الذي أنتج الناتج. إن إخفاء أي من المكونات في الصندوق الأسود يجعل من الصعب تحديد سبب النتائج غير المواتية أو غير المتوقعة، وإحدى الطرق لمنع العواقب الوخيمة هي إنهاء استخدام أنظمة التعلم العميق عالية المخاطر بالكامل.

 

وهذا من شأنه - أن يساعد في تقليل المخاطر في المجالات التي تكون فيها احتمالات الضرر عالية، مثل الرعاية الصحية والتمويل، النهج الثاني هو إيجاد طريقة للنظر عن كثب في الصندوق، يرى الأستاذ المشارك بجامعة ميشيغان ديربورن سمير رواشدة، في مقاله "مشكلة "الصندوق الأسود" الغامضة للذكاء الاصطناعي"، أنه للنظر في الصندوق، هناك نماذج مختلفة لكيفية القيام بذلك، لكننا نحتاج في الأساس إلى طريقة لمعرفة أي المدخلات تسبب ماذا؛ ويؤكد أنه في كلتا الحالتين، فإن الأمر يتطلب المزيد من العمل، ومعضلة الصندوق الأسود هي إلى حد كبير مشكلة لم يتم حلها في الوقت الحالي.

 

ملحوظة: إن معضلة الصندوق الأسود تسلط الضوء على قضية المساءلة حيث يصعب تحميل الأفراد المسؤولية عن الأحكام التي تتخذها الخوارزمية عند استخدام نماذج غير شفافة، والآن أصبح علينا أن نقرر كيف وبأي سرعة نريد أن يشكل التعلم العميق عالمنا. 

 

خخخسسسس

 

المسؤولية الجنائية  

 

فى مارس 2023، ورد أن رجلاً بلجيكيًا انتحر أثناء حديثه إلى روبوت ذكاء اصطناعي حول مخاوفه بشأن تغير المناخ - ومع ذلك - اتخذت المحادثات تدريجيًا منعطفًا ضارًا "شجع" الرجل على التضحية بنفسه لوقف تغير المناخ، يمكن استخدام عوامل مختلفة لتحديد مسؤولية الشخص الذي ينشر النظام الذكي الاصطناعي، ومنها:

 

أ) التدريب والتحقق والاختبار.

 

ب) الاحترام والاستقلالية.

 

ج) القيود والضمير.

 

إن عدم قيام المساهمين في النظام بتوفير التدريب والإشراف أثناء مرحلة تشغيل النظام أو تعلمه سوف يشير إلى الإهمال والعيوب البرمجية، حيث إن تقديم مثل هذا البرنامج للاستخدام المجتمعي العام من شأنه أن يعرض المجتمع ومستخدميه للخطر، وإذا كان الفعل أو الإهمال أو الرأي من هذا النوع، فإن المالك أو المنشئ أو المتحكم سوف يكون مسؤولاً جنائياً. وفي الحالات القصوى، فإن الذكاء الاصطناعي الذي حصل على استقلالية كاملة وإشراف ضئيل دون تدريب أو تحقق كاف أثناء التشغيل دون إشراف من المرجح أن يعني أن الشخص الذي أنشأ أو نشر الذكاء الاصطناعي كان متهورًا على الأقل في القيام بذلك . 

 

ىىىء

 

مع ظهور الابتكارات التكنولوجية الناشئة، تأتي المسؤولية الجنائية  حيث أنه من الواضح أن هذه الابتكارات يمكن استخدامها لتحقيق الصالح العام ويمكنها في الوقت نفسه أن تسبب الألم. إن مستوى العدوان فيما يتعلق بإساءة استخدام الذكاء الاصطناعي يتزايد بسرعة. كما إن توسع نطاق تطبيقات الذكاء الاصطناعي يطلق العنان لثورة رقمية جديدة تمامًا. ومع وتيرة تطوير أنظمة الذكاء الاصطناعي، فمن الواضح أن جميع فروع القانون ستكون مطلوبة في مرحلة ما للخضوع للتعديلات لاستيعاب التطورات التكنولوجية الجديدة، مما يقودنا إلى النظر  في حالتين رئيسيتين حيث يتم ارتكاب فعل إجرامي من خلال الذكاء الاصطناعي، وبالتالي، إثبات ضرورة منح الذكاء الاصطناعي شخصية قانونية، وفي المقدمة، النتائج المحتملة المرتبطة بكيانات الذكاء الاصطناعي هي كما يلي:

 

أ) حيث يكون الذكاء الاصطناعي خاليًا من أي فعل سيء ويوجد عيب في البرمجة

 

هنا، يتم إعفاء الذكاء الاصطناعي من أي نوع من المسؤولية بسبب البرمجة المعيبة من قبل المنتج أو استخدام الذكاء الاصطناعي بنوايا سيئة من المستخدم. على سبيل المثال، في حالة السيارات ذاتية القيادة أو الأنظمة الآلية، إذا كان المبدع على دراية بالثغرة في برمجته ولا يزال يطلق منتجه دون اتخاذ تدابير تصحيحية، فسيكون مسؤولاً في مثل هذا السيناريو. علاوة على ذلك، فإن استخدام الذكاء الاصطناعي لإنتاج مزيفات عميقة هو عمل إجرامي له عواقب مشددة على الأشخاص المعنيين. في الارتفاع الأخير لمثل هذه الحالات، يحقق ضباط إنفاذ القانون في الأمور ويحاسبون هؤلاء الأشخاص الذين صنعوا مثل هذه المزيفات العميقة. كان أحد هذه الحوادث الأخيرة في فبراير 2024 عندما نقل موظفو إحدى الشركات أكثر من 25.6 مليون دولار بعد أن تم  خداعهم من قبل نسخ مزيفة عميقة من زملائهم. 

 

لللس

 

ب) حيث يكون الذكاء الاصطناعي قادرًا على التعلم الذاتي والاستقلالية الكاملة

 

إن نطاق هذا الموقف مليء بالافتراضات والتكهنات حيث يمكن للذكاء الاصطناعي أن يظهر سلوكًا طوعيًا واستقلالية في اتخاذ القرار. يرتبط الذكاء الاصطناعي كموضوع للمسؤولية الجنائية بشكل مباشر بإمكانية منح الحقوق وفرض الواجبات عليه. وبالتالي، في مثل هذه المواقف، يمكن تحميل كيانات الذكاء الاصطناعي المسؤولية الجنائية. قد يتم تعطيله أو حذفه بشكل دائم كأثر رادع. إذا لم يتم تسهيل التدريب والإشراف من قبل المساهمين في هذا النظام أثناء فترة التشغيل أو التعلم، فإن هذا يعني التهور والثغرات في البرمجة. إن إطلاق مثل هذا البرنامج لاستخدامه من قبل المجتمع ككل من شأنه أن يعرض المجتمع ومستخدميه لخطر المسؤولية الجنائية للمالك / المبدع والمتحكم.

 

أمثلة عالمية:  

 

1- فى الولايات المتحدة الأمريكية

 

في عام 2022، أصدر مكتب سياسة العلوم والتكنولوجيا التابع للبيت الأبيض الأمريكي "مخططًا لإعلان حقوق الذكاء الاصطناعي"، وتوفر الوثيقة إطارًا للتعاون بين الحكومة والشركات والمواطنين من أجل ضمان المزيد من المساءلة للذكاء الاصطناعي، ويهدف إلى "المساعدة في توجيه تصميم واستخدام ونشر الأنظمة الآلية"، والمبادئ غير تنظيمية وغير ملزمة، وهي تحتوي على خمسة مبادئ كما تم إصدارها على النحو التالي:

 

أ) أنظمة آمنة وفعالة: الحماية من الأنظمة غير الآمنة أو غير الفعالة.

 

ب) الحماية من التمييز الخوارزمي: الخوارزميات والأنظمة غير التمييزية

 

ج) خصوصية البيانات: الحماية من ممارسات البيانات المسيئة من خلال الحماية المضمنة

 

د) إشعار وتوضيح: معرفة استخدام النظام الآلي

 

هـ) الخيارات البديلة: توفر خيار الانسحاب. 

 

و

 

2- المملكة المتحدة البريطانية  

 

يحدد إطار عمل العلوم والتكنولوجيا في المملكة المتحدة الذكاء الاصطناعي باعتباره أحد التقنيات الخمس الأساسية ويشير إلى أن التنظيم يلعب دورًا مهمًا في خلق بيئة مواتية لازدهار الذكاء الاصطناعي، وقد حددت حكومة المملكة المتحدة خمسة مبادئ تؤكد على النهج التنظيمي للذكاء الاصطناعي:

 

أ) السلامة والأمن والمتانة.

 

ب) الشفافية المناسبة والقدرة على التفسير.

 

ج) العدالة.

 

د) المساءلة والحوكمة.

 

هـ) قابلية الطعن والتعويض. 

 

1280x960

 

وجديرا بالذكر عُقدت قمة سلامة الذكاء الاصطناعي الدولية التي نظمتها الحكومة البريطانية يومي 1 و2 نوفمبرلعام 2023. وركزت القمة على سلامة نماذج "الذكاء الاصطناعي الرائدة" .

 

في 22 نوفمبر 2023، قدم برلمان المملكة المتحدة مشروع قانون الذكاء الاصطناعي (التنظيم)، وهو مشروع قانون خاص. ومع ذلك، فهو إضافة مثيرة للاهتمام إلى المناقشة حول أفضل السبل لتنظيم الذكاء الاصطناعي. يسهل مشروع القانون إنشاء هيئة جديدة تسمى هيئة الذكاء الاصطناعي. ويضمن مشروع القانون أن أي شركة تطور أو تستخدم الذكاء الاصطناعي ستكون ملزمة بتعيين موظف مسؤول عن الذكاء الاصطناعي.

 

علاوة على ذلك، تم تقديم مشروع قانون المركبات الآلية في نوفمبر 2023، حيث يحدد مشروع القانون "القيادة الذاتية"، وينص على نظام صارم للسلامة والترخيص للمركبات ذاتية القيادة. سيكون الترخيص مطلوبًا للمنظمة المسؤولة عن كيفية قيادة المركبة الآلية، بالإضافة إلى نظام ترخيص للشركات المسؤولة عن تشغيل المركبات "بدون مستخدم مسؤول" (NUiC)، ويهدف مشروع القانون إلى إزالة المسؤولية عن مستخدمي مركبة NUiC فيما يتعلق بالجوانب المتعلقة بالقيادة لاستخدامها، ولكن ليس فيما يتعلق بالجوانب غير المتعلقة بالقيادة. 

 

202309041146564656

 

لذلك موصى ونقترح لحل معضلة الشخصية القانونية للذكاء الاصطناعي:

 

1- خلق المساءلة، يجب منح أي نظام ذكي اصطناعي صفة الشخص الاعتباري، وهذا لن يسهل تحقيق العدالة لضحايا العواقب غير القانونية فحسب، بل سيساعد أيضًا في تحقيق النمو المستدام في مجال الذكاء الاصطناعي.

 

2-لردع الأنشطة غير القانونية بمساعدة الذكاء الاصطناعي، يجب أن يتحملوا المسؤولية الجنائية، ويجوز فرض عقوبة تعادل مدة السجن، وهي تعطيل النظام المذكور مؤقتًا - وعلاوة على ذلك - في حالات الجرائم الجسيمة، يجوز حذف النظام بشكل دائم، ولضمان عدم إعاقة التقدم التكنولوجي، يمكن العمل على مثل هذه الأنظمة المعطلة أو التي يجب حذفها لتصحيح  الأخطاء.

 

3-لضمان المساءلة، يجب إعطاء وضع حاسم للعلاقة بين المدير والوكيل بين الذكاء الاصطناعي والمالك/المتحكم.

 

4- إن التشريع الخاص هو الحل للسباق نحو تنظيم الذكاء الاصطناعي، ويتعين على الأمم المتحدة على المستوى الدولي أن تقدم سياسات وقوانين نموذجية تتعلق بالشخصية القانونية للذكاء الاصطناعي لضمان التوحيد وزيادة المسألة.  


1280x960

 


202309041146564656

 


و

 

 
حححي
 

أستاذ القانون الجنائى والمحامى الدكتور كريم ملازم

 


print