فجوة المسؤولية في العصر الرقمي بين الذكاء الاصطناعي وتقليدية النص

الباحثة/ وضحة أحمد حسن المراني

3/17/2026

يمكنك تنزيل الدراسة من هنا

الباحثة/ وضحة أحمد حسن المراني

 

الملخص:

تهدف هذه الدراسة إلى تحليل الإشكالية القانونية الناشئة عن الأضرار التي تسببها الأنظمة الذكية ذاتية الاستقلال والتعلم (الذكاء الاصطناعي المتقدم)، وذلك في ظل الفجوة بين التسارع التقني الهائل وبطء تطور الأطر القانونية التقليدية. تبرز المشكلة في قصور نظريات المسؤولية المدنية القائمة على الخطأ والسببية في التعامل مع قرارات تتخذها أنظمة قادرة على التعلم والتطور بشكل قد يكون غير متوقع بالكامل من قبل مصمميها، مما يخلق ما يعرف بـ «فجوة التصميم والسلوك».

من خلال المنهج التحليلي المقارن، تبحث الدراسة في مدى قدرة التصنيف القانوني التقليدي (شخص/شيء) على استيعاب الطبيعة الخاصة لهذه الأنظمة، وتكشف عن التحديات التي تواجه إثبات أركان المسؤولية التقصيرية، خاصة الخطأ والعلاقة السببية. كما تناقش الدراسة الاتجاهات الفقهية المتباينة بين رافض لمنح الذكاء الاصطناعي شخصية قانونية (لافتقاده الإرادة الواعية والذمة المالية) وداعٍ لاستحداث شخصية قانونية جديدة (رقمية)، وتخلص إلى أن هذا الجدال النظري قد يحول دون التركيز على الهدف العملي المتمثل في جبر الضرر.

كبديل عملي، تستعرض الدراسة نماذج المسؤولية الموضوعية (كمسؤولية الحارس والمنتج) وتحدد قصورها عند التطبيق على الأنظمة ذاتية التعلم. بناءً على ذلك، تقترح الدراسة إطاراً قانونياً تكاملياً يركز على أولوية تعويض المتضرر، من خلال نموذج هجين يجمع بين فرض مسؤولية موضوعية وتضامنية على المطور والمنتج والمشغل، مع استحداث آليات تمويل جماعية إلزامية (كالتأمين الإلزامي وصناديق الضمان الجماعية)، وإنشاء سجل مركزي واشتراطات شفافية لتحقيق قدر من الرقابة والمساءلة.

الكلمات المفتاحية: المسؤولية المدنية، الذكاء الاصطناعي، التأمين الإلزامي، جبر الضرر.

المقدمة

تشهد الحقبة الرقمية الحالية تحولاً جوهرياً في طبيعة التفاعل بين الإنسان والتكنولوجيا، حيث لم يعد الذكاء الاصطناعي مجرد أداة سلبية ينفذ أوامر محددة مسبقاً، بل تحول إلى فاعل مستقل قادر على اتخاذ قرارات وتنفيذ إجراءات معقدة من خلال عمليات تعلم ذاتي متطورة. هذا التحول يفرض واقعاً قانونياً جديداً تتسع فيه الفجوة بين التسارع التقني الهائل وبين الأطر القانونية التقليدية، التي صُممت في سياق يهيمن عليه الفعل البشري المباشر والخطأ الشخصي القابل للإسناد. وفي صميم هذه الفجوة، تبرز إشكالية بالغة التعقيد، وهي المسؤولية المدنية عن الأضرار الناجمة عن الأنظمة الذكية المستقلة، والتي تمثل اختباراً حقيقياً لقدرة المنظومة القانونية على التكيف والاستجابة لمستجدات العصر.

أهمية الدراسة:

تكتسب هذه الدراسة أهميتها من عدة زوايا:

•  أهمية نظرية: تتناول الدراسة إشكالية قانونية حديثة تمس الأسس التقليدية للقانون المدني، وخاصة نظريات المسؤولية القائمة على الخطأ والضرر والعلاقة السببية، وتستدعي إعادة التفكير في مفاهيم مثل «الفعل الضار» و«السببية» و«الشخصية القانونية» في عصر الآلات ذاتية التعلم.

•  أهمية عملية واجتماعية: مع انتشار الأنظمة الذكية في مجالات حيوية مثل النقل الذاتي، القيادة، والرعاية الصحية، والخدمات المالية، والقضاء، وتزداد احتمالية وقوع أضرار جسيمة من جراء عملها. لذا، يصبح تأسيس نظام عادل وفعال لجبر هذه الأضرار ضرورة ملحة لتحقيق الأمن القانوني والاجتماعي، وحماية حقوق المتضررين، وفي نفس الوقت عدم إعاقة مسار الابتكار التقني.

•  أهمية مستقبلية: تقدم الدراسة مقاربة استباقية لأحد أهم التحديات التشريعية في القرن الحادي والعشرين، وتسعى لوضع مقترحات قد تسهم في رسم سياسة تشريعية متوازنة تستشرف المستقبل.

 

أهداف الدراسة:

تهدف هذه الدراسة إلى تحقيق الأهداف التالية:

•  تحليل الطبيعة القانونية للأنظمة الذكية عالية الاستقلالية، وبيان حدود تطبيق مفاهيم الشخصية القانونية التقليدية (الطبيعية والاعتبارية) عليها.

•  الكشف عن قصور النظريات التقليدية للمسؤولية المدنية (المسؤولية التقصيرية والعقدية) في مواجهة الأضرار الناجمة عن قرارات تتخذها أنظمة ذاتية التعلم.

•  استعراض ومناقشة الاتجاهات الفقهية الحديثة بشأن معالجة إشكالية المسؤولية، بين الرافض لمنح الشخصية القانونية والداعي لاستحداثها.

•  اقتراح إطار قانوني عملي وتكاملي يركز على الهدف الجوهري للمسؤولية المدنية المتمثل في جبر الضرر، من خلال نموذج يجمع بين المسؤولية الموضوعية للمطور أو المشغل، وابتكار آليات تمويلية جماعية (كالضمان والتأمين الإلزامي) مخصصة لهذه الأنظمة.

أسئلة الدراسة:

للوصول إلى الأهداف المذكورة، تسعى الدراسة للإجابة على الأسئلة التالية:

•  إلى أي مدى يمكن للتصنيف القانوني التقليدي (شخص/ شيء) استيعاب الطبيعة الخاصة للأنظمة الذكية ذاتية الاستقلال والتعلم؟

•  ما هي التحديات التي تفرضها «فجوة التصميم والسلوك» على إثبات أركان المسؤولية التقصيرية، وخاصة ركني الخطأ والعلاقة السببية؟

•  هل يمثل منح الشخصية القانونية للذكاء الاصطناعي حلاً مناسباً للإشكالية القائمة، أم أن التركيز على بناء أنظمة ضمان وتعويض جماعية أكثر واقعية وفعالية في المرحلة الراهنة؟

•  كيف يمكن صياغة نموذج مشروع للمسؤولية والضمان يوفق بين ضمان تعويض سريع وعادل للمتضرر، وتحفيز العناية الواجبة من قبل المطورين والمشغلين، وتوزيع المخاطر النظامية لهذه التقنية بآلية عادلة؟

المنهج المتبع:

تعتمد هذه الدراسة في معالجة موضوعها على المنهج التحليلي المقارن، من خلال:

-   التحليل القانوني: لفحص نصوص ومبادئ المسؤولية المدنية في إطارها التقليدي، وتحليل مدى ملاءمتها للواقع التقني الجديد.

-   التحليل التقني- القانوني: لفهم الخصائص التقنية للأنظمة الذكية (كالاستقلالية، التعلم الذاتي) وآثارها القانونية المباشرة.

-   المقارنة: بين مختلف الآراء والاتجاهات الفقهية المعاصرة، التي تناولت موضوع المسؤولية والشخصية القانونية للذكاء الاصطناعي.

-   المنهج الاستشرافي: حيث لا تقتصر الدراسة على التشخيص والنقد، بل تسعى لتقديم رؤى ومقترحات عملية قابلة للتطبيق ضمن الأطر القانونية القائمة أو المستقبلية.

من خلال هذا الإطار، تسهم الدراسة في إثراء النقاش القانوني الأكاديمي والمهني حول أحد أكثر الموضوعات إلحاحاً في ظل الثورة الرقمية المستمرة.

وعليه تنقسم هذه الدراسة إلى:

•  المبحث الأول: الذكاء الاصطناعي ومفهوم المسؤولية.

-   المطلب الأول: ماهية الذكاء الاصطناعي وسمة الاستقلالية.

-   المطلب الثاني: مفهوم المسؤولية المدنية.

•  المبحث الثاني: نحو تأسيس إطار قانوني لمسؤولية الذكاء الاصطناعي.

-   المطلب الأول: حدود إسناد الشخصية القانونية للذكاء الاصطناعي

-   المطلب الثاني: نماذج المسؤولية الموضوعية كبديل عملي.

•  الخاتمة.

•  قائمة المراجع.

 

المبحثالأول
الذكاء الاصطناعي ومفهومالمسؤولية المدنية

يأتي هذا المبحث ليحلل الإطار النظري للإشكالية القانونية التي يطرحها الذكاء الاصطناعي، وذلك من خلال تقصّي الطبيعة التقنية المميزة لها، وآثارها المباشرة على المفاهيم القانونية التقليدية. وينقسم إلى مطلبين: يركز الأول على ماهية الذكاء الاصطناعي وسمة الاستقلالية التأسيسية، بينما يتناول الثاني مفهوم المسؤولية المدنية التقليدية، وذلك في إطار التفاعل بين التقنية المتقدمة والنص القانوني السائد.

المطلب الأول
ماهية الذكاء الاصطناعي وسمة الاستقلالية

أولاً: تعريف الذكاء الاصطناعي وسمة الاستقلالية:

يُعرّف الذكاء الاصطناعي (Artificial Intelligence) بأنه فرع من فروع علوم الحاسب الآلي يهدف إلى محاكاة الوظائف الذهنية البشرية، وذلك «من خلال خوارزميات معينة تساعده على التطور والتعلم». وتتجلى أبرز صفاته في الاستقلالية، التي تعني «قدرة الذكاء الاصطناعي على العمل والتعامل مع البيئة المحيطة به دون أي تدخل بشري» تنبثق هذه الاستقلالية من تعقيد الخوارزميات[1] التأسيسية وقدرة النظام على التعلم من البيانات الضخمة، فتقوم بعض برامج الذكاء الاصطناعي بتدريب نفسها من خلال التجربة والخطأ باستخدام تقنية تسمى «التطور العصبي»، مما قد يؤدي إلى توليد قرارات أو سلوكيات غير متوقعة بالكامل من قبل المطورين الأصليين. هذا التفاعل الديناميكي يخلق ما يُعرف بـ «فجوة التصميم والسلوك»، وهي النقطة المركزية التي تفصل بين نية المبرمج ونتائج عمل النظام المستقل لاحقاً، وهناك برامج ذكاء اصطناعي أخرى تحتاج إلى تدريب من قبل البشر الذين يزودوهم بالبيانات. ثم يستمد الذكاء الاصطناعي الأنماط والقواعد من تلك البيانات[2]

أنواع الذكاء الاصطناعي:

تنقسم الروبوتات (الذكاء الاصطناعي) من حيث الاستقلالية إلى نوعين رئيسيين، النوع الأول: يتم تسييره من قبل الإنسان ويسمى روبوتات الوسائط الآلية، والثاني: قائم على التعليم الذاتي ويستطيع اتخاذ قرارات مستقلة دون أي تدخل بشري ويطلق عليه الروبوتات الذكية ذاتية التشغيل.

أولاً: روبوتات الوسائط الآلية:

وهي أجهزة يمكن إعادة برمجتها ولها وظائف متعددة، وفقاً لأوامر محددة تتحكم فيه من قبل مهني مؤهل أو المشغل وفقاً لدليل التشغيل. أي إن هذا النوع ليس له القدرة على الاستقلال باتخاذ القرارات كما إنه ليست له القدرة على التطوير الذاتي فلا تخرج خارج نطاق المصنع والمشغل.

ثانياً: الروبوتات الذكية ذاتية التشغيل:

هي الروبوتات المتقدمة التي يمكنها اتخاذ القرارات بشكل ذاتي دون تدخل بشري ولها القدرة على التعلم والتطوير الذاتي، تمثل فئة الأنظمة الذكية ذاتية الاستقلال المتقدم- والتي تشمل الروبوتات المتقدمة والمركبات ذاتية القيادة- النموذج الأكثر تعقيداً وتحدياً في مشهد الذكاء الاصطناعي المعاصر. تتميز هذه الأنظمة بقدرتين محوريتين: أولاً، القدرة على اتخاذ القرارات التنفيذية بشكل ذاتي في البيئة الواقعية دون تدخل بشري فوري، وثانياً، القدرة على التعلم الذاتي والتكيف من خلال التفاعل مع البيانات والتجارب المستمرة. هذه السمات تُحدث تحولاً جوهرياً في طبيعة العلاقة بين المُصمّم البشري والفعل النهائي للنظام[3]

هذا التحول هو مصدر الإشكالية القانونية المركزية: فبينما تنتقل القدرة التشغيلية إلى النظام الذاتي، تظل المسؤولية القانونية بحاجة إلى تحديد واضح. يبرز التساؤل الجوهري: كيف يمكن إسناد المسؤولية المدنية عن الأضرار الناجمة عن قرارات تحليلية وتنفيذية يتخذها النظام بشكل مستقل، مستخدماً منطقاً داخلياً معقداً نشأ وتطور- جزئياً على الأقل- من خلال عملية تعلم ذاتي قد تكون غير قابلة للتنبؤ الكامل أو التتبع المباشر من قبل المطورين الأصليين؟ تُضعف هذه الاستقلالية الوظيفية الأساس التقليدي للمسؤولية القائم على «خطأ» يمكن إرجاعه إلى إرادة أو تقصير بشري محدد، مما يدفع نحو الحاجة إلى أطر قانونية جديدة تتعامل مع الواقع التقني المستجد.

المطلب الثاني
مفهوم المسؤولية المدنية

يؤدي الإخلال بالالتزام قيام المسئولية المدنية التي تهدف إلى التعويض وجبر الضرر سواء كانت التزامات أصلية ناشئة من العقد، كالتزام المؤجر بتسليم العين المؤجرة أو التزام البائع بتسليم المبيع، وقد ينشأ بعضها الآخر من القانون، كالتزام المتبوع عن أعمال التابع، وعليه تنقسم المسئولية المدنية إلى مسئولية عقدية ومسئولية تقصيرية، فالمسئولية العقدية يحدد مداها العقد من جهة والقواعد الخاصة بالمسؤولية من جهة أخرى، أما المسئولية التقصيرية الناشئة عن التقصير بالقيام بواجب قانوني، فالقانون هو الذي يستقل بحكمها وتحديد مداها، وفي كلا الحالتين يبقي الحق في المطالبة بالتعويض حقاً خاصاً يجوز الصلح فيه والتنازل عنه ممن شرع التعويض لصالحه[4]، إذ نصت المادة (304) من القانون المدني: « كل فعل أو ترك غير مشروع سواء كان ناشئاً عن عمد أو شبه عمد أو خطأ إذا سبب للغير ضرراً، يلزم من ارتكبه بتعويض الغير عن الضرر الذى أصابه..».

 

وتقوم المسؤولية المدنية بتوافر ثلاثة أركان هي:

•  الخطأ: هو «انحراف في السلوك عن المعيار الذي يتبعه الشخص العادي»[5].  أي إنه سلوك غير مشروع يصدر عن الشخص الملزم، مخالفاً للقانون أو العرف أو النظام العام، يؤدي إلى الحاق ضرر بالآخرين، وقد يكون الخطأ إما بقيام بفعل أو الامتناع عن الفعل[6].

    والخطأ كأحد أركان المسؤولية المدنية نوعان خطأ واجب الاثبات، وخطأ مفترض، والخطأ المفترض بدوره ينقسم إلى نوعين:

-   خطأ قابل لإثبات العكس.

-   خطأ مبني على افتراض المسؤولية (لا يقبل افتراض العكس)[7].

•  الضرر: هو الأذى الذي يصيب الشخص كنتيجة للخطأ وينقسم إلى ضرر مادي وضرر معنوي، فإذا لم يقع الضرر فلا مسؤولية.

-   الضرر المادي: هو الضرر الذي يصيب الإنسان في حق من حقوقه، سواء جسده أو ماله أو أي مصلحة مادية قانونية ومشروعة.

-   الضرر المعنوي: هو الضرر الذي يصيب المضرور في مشاعره أو عواطفه أي في الجوانب الإنسانية غير الملموسة، ومن أمثلتها الضرر الذي يلحق بالسمعة والشرف والاعتبار[8]

ويتم التعويض بالإجماع عن الضرر المباشر، أما الضرر غير المباشر فلا يجب التعويض عنه لا في المسؤولية العقدية ولا المسؤولية التقصيرية، ولكن ما هو معيار التمييز بين الضرر المباشر وغير المباشر؟

يتم التمييز بينهما أن الضرر المباشر يكون النتيجة الطبيعية للخطأ، ويعتبر الضرر نتيجة طبيعية إذا لم يكن في استطاعة الدائن أن يتفاداه ببذل جهد معقول، ويرتبط بالخطأ برابطة سببية مباشرة، بينما الضرر غير المباشر يكون نتيجة عرضية منقطعة الصلة بالخطأ، وعليه لا يتم التعويض عنه سواء كان في المسؤولية العقدية أو التقصيرية[9]

•  العلاقة السببية: هي الرابطة بين الخطأ والضرر، ويكون الضرر ناتجاً عن الخطأ بشكل مباشر، فهي تمثل العلاقة بين الفعل أو الامتناع عن الفعل وبين الضرر وأن الضرر لم يكن سيحدث لولا هذا الخطأ[10].

 

المبحثالثاني
نحو تأسيس إطارقانوني لمسؤولية الذكاءالاصطناعي

يعالج هذا المبحث مسألة تكييف المسؤولية المدنية للتعامل مع أضرار الذكاء الاصطناعي، من خلال استكشاف البدائل القانونية المطروحة. وينقسم إلى مطلبين: يناقش الأول حدود فكرة «الشخصية القانونية» كحل للإشكالية، بينما يستكشف الثاني نماذج المسؤولية الموضوعية كبدائل عملية.

المطلب الأول
حدود إسناد الشخصية القانونية للذكاء الاصطناعي

تشكل الصعوبة في إثبات «الخطأ» و«العلاقة السببية» في البيئة التقنية المعقدة للذكاء الاصطناعي تحديًا جوهريًا يُضعف أساس المسؤولية المدنية التقليدية. فكيف يمكن محاسبة إرادة بشرية على قرارات مولَّدة من خوارزميات متطورة تعمل بمنطق إحصائي معقد، قد يكون عصيًّا على الفهم أو التنبؤ الكامل؟ وهل يمكن تتبع سلسلة السببية بشكل موثوق في نظام يتعلم ذاتيًا ويتطور باستمرار، مما يوسع الفجوة بين الفعل البشري الأولي والنتيجة الضارة النهائية؟ 

يزيد من تعقيد المأزق عدم منح الذكاء الاصطناعي الشخصية القانونية التقليدية، لانعدام مقوماتها الأساسية، وأهمها الإرادة الواعية المستقلة والذمة المالية. فالشخصية القانونية لا تمنح لمجرد القدرة على تنفيذ مهام معقدة، بل تقوم على وجود كيان له إرادة ووعي ذاتي[11] وبالتالي فإن السعي لمحاسبة «الكيان الآلي» ذاته يعد ضرباً من المحال القانوني، مما يحتم العودة إلى الأطراف البشرية أو المؤسسية المشاركة في تكوين هذه الأنظمة فائقة الذكاء.

يستدعي هذا الواقع القانوني ضرورة التمييز الدقيق بين مفهوم «الشخصية القانونية» كاعتراف باكتساب الحقوق وبين «المسؤولية القانونية» كقدرة على تحمّل تبعات الأفعال. فالأولى تُمثّل «أهلية وجوب»، بينما الثانية تقوم على «أهلية أداء». وعند إسقاط هذا التمييز على الذكاء الاصطناعي، فإن افتقاده الجوهري للإرادة الواعية والتمييز يجعل من غير الممكن إسناد المسؤولية المدنية (القائمة على الخطأ الشخصي) إليه، حتى لو افترضنا– جدلاً– منحه نوعاً من الاعتراف القانوني[12].

لكن، ومما هو متعارف عليه في القانون، أن نفي المسؤولية عن الشخص غير الواعي (المتمتع بأهلية الوجوب دون الأداء[13] لا ينفي المسؤولية على الإطلاق، بل ينقلها إلى الشخص المسؤول عنه (كالولي أو الحارس)، الذي يُطالب بالتعويض عن أفعال عديم التمييز إذ نصت المادة (311) من القانون المدني: « كل من تولى بنص أو اتفاق رقابة شخص في حاجة إلى رقابة بسبب قصر سنة أو حالته العقلية أو الجسمية، يكون ملزماً في ماله بتعويض الضرر الذي يحدثه ذلك الشخص للغير بعمله غير المشروع، وإذا لم يكن له مال فيكون التعويض من مال الشخص الذي يتولى رقابته». غير أن إسقاط هذا النموذج على الذكاء الاصطناعي يصطدم بعائق جوهري هو: عدم وجود الشخصية القانونية له من الأساس، وبالتالي انعدام الذمة المالية المستقلة التي يمكن أن تُلزم بالتعويض. فمسؤولية الحارس أو الولي تفرض بالدرجة الأولى وجود «شخص» قانوني (ولو ناقص الأهلية) عليه تُحمَّل المسؤولية بشكل أولي، قبل انتقالها وهذا ما يفتقده الذكاء الاصطناعي حاليًا[14].

الاتجاهات الفقهية بين رفض الشخصية القانونية والدعوة لاستحداثها:

الاتجاه الرافض لمنح الشخصية القانونية: يؤكد هذا الاتجاه على ضرورة التمسك بمركزية الوكالة البشرية. ويستند في ذلك إلى أن الاستقلالية الحالية لأنظمة الذكاء الاصطناعي «لا تعدو أن تكون في بداياتها ولا يمكن حالياً لهذا الذكاء الاستغناء عن المجهود البشري بصفة مطلقة»[15].

 

الاتجاه الداعي لاستحداث شخصية قانونية جديدة (رقمية): 

يرى أنصار هذا الاتجاه أن الخصائص المميزة للأنظمة فائقة الاستقلالية، خاصة عند تجسيدها في هيئة مادية (روبوتات)، تستوجب «إعادة التفكير في الطبيعة القانونية للذكاء الاصطناعي» مما يستوجب إلى إنشاء صنف ثالث من الأشخاص، يكون في وضعية وسطى بين الشخص والشيء، كمرحلة تمهيدية قد تؤدي إلى الاعتراف بشخصية قانونية مستقلة في المستقبل.

ويستند أصحاب هذا الاتجاه إلى القياس على الاعتراف بالشخصية الاعتبارية التي يتمتع بها أشخاص القانون العام والخاص. والتي دعت الحاجة إلى منحها الشخصية القانونية نظراً لتوافر ذات الأسباب والضرورات العملية بحق أنظمة وتقنيات الذكاء الاصطناعي والتي تتمثل في ضرورة وجود ممثل قانوني لها. وإمكانية مساءلتها في ذمتها المالية الخاصة والسماح بمقاضاتها فكما أن الشخصية الاعتبارية مجاز قانوني مقبول دعت إليه الضرورات السابقة. فمن المتصور أن تكون الشخصية القانونية لأنظمة الذكاء الاصطناعي هي الأخرى مجاز قانوني مقبول لذات الأسباب، وحتى يتسنى لها القيام بالمهام المنوطة بها، وتبنى أنصار هذا الرأي شخصية الشركة كنموذج لحقوق الروبوت الذكي، والاعتراف له بشخصية قانونية، كما يمكن تحديد موطن الشخصية القانونية للذكاء الاصطناعي من خلال تنظيم شكل معين للتسجيل على غرار تسجيل الشركات في الشخصية القانونية الاعتبارية، بحيث يفرض مجموعة من الإجراءات لتسجيل الشخصية القانونية للذكاء الاصطناعي. وكذلك يتم تحديد من يمثل الشخصية القانونية للذكاء الاصطناعي من الأشخاص الطبيعية أمام الأفراد والجهات، وكلما كان الروبوت أكثر استقلالية كلما قل اعتباره أداة يسيطر عليها طرف ثالث مثل المصنع أو المبرمج[16]

ويلاحظ أن الرأي السابق محل إعادة نظر، فلا يصح قياس الذكاء الاصطناعي ذي الاستقلالية العالية– خاصة عند تجسيده في صورة روبوتية– على الشخصية الاعتبارية (كشركة أو مؤسسة) قياساً مطرداً. فالشخص الاعتباري، وإن كان كياناً قانونياً مجرداً، يظل في حقيقة أدائه وعمله محكوماً بإرادة بشرية مباشرة تمثلها أجهزة إدارته (كمجلس الإدارة أو المديرين)، حيث تُتخذ القرارات وتُنفذ الأفعال بواسطة أشخاص طبيعيين هم ممثلو الشخص الاعتباري. بيد أن الذكاء الاصطناعي المتقدم يتسم بـ «الاستقلالية الجوهرية» في عملية اتخاذ القرار؛ فهو قادر على تحليل البيانات، واستنتاج الأنماط، واتخاذ إجراءات ملموسة في العالم الخارجي من خلال منطق داخلي معقد قد يكون غير شفاف حتى لمصمميه. وهذا يمثل فصلاً نوعياً عن آلية عمل الشخص الاعتباري التقليدي.

وفي حقيقة الأمر، فإن الطبيعة «الشيئية» الأولية للذكاء الاصطناعي لا يجب أن تشكل عائقاً أمام إفراده بنظام قانوني خاص ينظم مواصفاته وملامحه التشغيلية، وذلك عبر تدابير إدارية تنظيمية رائدة، مثل إنشاء سجل مركزي خاص يُحصي هذه الأنظمة ويسجل بياناتها الفنية ورقماً تعريفياً فريداً لها، مع حفظ سجلات المعاملات والأفعال القانونية المنسوبة إليها.

وهذا التأطير يصبح أكثر إلحاحاً في ضوء التحول الجذري لدور الذكاء الاصطناعي من مجرد أداة سلبية إلى فاعل مؤثر في مجالات حيوية: فهو يعمل كمساعد قضائي متقدم في نظم المحاكم في دول مثل الصين واليابان[17]، ويُستدعى كأداة تحليلية في الإثبات في سنغافورة، ويؤدي أدوار الجراح والمعلم والمحلل الاقتصادي بمستويات غير مسبوقة من الدقة والاستقلال الوظيفي. إن هذا الحضور الفعّال يخلق واقعاً قانونياً جديداً يفرض تحديث نصوص المسؤولية المدنية بما يتماشى مع هذه المستجدات، حتى لا تتسع الفجوة بين النص القانوني والتطبيق العملي.

المطلب الثاني
نماذج المسؤولية الموضوعية كبديل عملي 

نظراً للصعوبات النظرية والعملية التي يثيرها مسار «الشخصية القانونية»، يتجه الفقه والبحث التشريعي المعاصر نحو استكشاف نماذج المسؤولية الموضوعية القائمة على فكرة توزيع المخاطر وضمان التعويض، كبديل أكثر واقعية وفعالية في المرحلة الحالية.

إذ إن إمكانية تطبيق قواعد المسئولية المدنية الموضوعية على الذكاء الاصطناعي تقتضي البحث في صحة اعتبار شيء تنطبق عليه قواعد المسؤولية الشيئية، أو منتج تنطبق عليه قواعد المسؤولية الناجمة عن المنتجات المعيبة، إضافة لإمكانية تحقق قواعد الحراسة القانونية الموجبة للمسؤولية على هذا الذكاء من عدمه.

مسؤولية حارس الشيء كأساس للمسؤولية عن فعل تقنيات الذكاء الاصطناعي:

تُثير أنظمة الذكاء الاصطناعي، خاصةً ذاتية التعلم، إشكاليةً قانونيةً جوهريةً تتعلق بتحديد طبيعتها القانونية وموقعها ضمن التقسيم التقليدي للأشخاص والأشياء. فبعد استبعاد إدراجها في فئة «الأشخاص» لانعدام الإرادة الواعية، يبرز التساؤل حول إمكانية إدراجها ضمن فئة «الأشياء»، وذلك في محاولة لإخضاعها لنظام مسؤولية الحارس المنصوص عليه في التشريعات المدنية، والتي توجب تعويض الضرر الناجم عن الشيء على من يتولى حراسته.

إلا أن هذا المسار يواجه تحدياً نظرياً وعملياً. فمن الناحية النظرية، يستلزم مفهوم «الشيء» في الفقه والقضاء التقليديين توافر سمات مادية محسوسة، وقد استقر على تقسيمه إلى أشياء جامدة غير حية وحية غير عاقلة. وتتجاوز الطبيعة الوظيفية للذكاء الاصطناعي هذا التصنيف الضيق؛ فـ الاستقلالية الذاتية التي تميزه– وهي قدرته على التحليل واتخاذ القرارات دون توجيه فوري– تنتزعه من مفهوم الشيء السلبي الخاضع لسيطرة كاملة، وتضعه في منطقة رمادية بين «الأداة» و«الفاعل»[18].

وينعكس هذا التحدي النظري على الجانب العملي لتطبيق قواعد الحراسة. فمسؤولية الحارس، كما هي مقررة في النصوص القانونية (م317 من القانون المدني)، تفترض وجود سيطرة فعلية للحارس على الشيء، من حيث الاستعمال والتوجيه والرقابة[19]. هنا تظهر الإشكالية المركزية: كيف يمكن افتراض هذه «السيطرة الفعلية» على نظام ذكي قادر– بحكم تصميمه– على التعلم واتخاذ قرارات مستقلة في بيئات معقدة ومتغيرة؟ الاستقلالية الوظيفية تقوّض الركيزة الأساسية لعلاقة الحراسة، وهي القدرة على التوجيه والمنع. وبالتالي، يصبح السؤال «من يتحكم بمَن؟» ليس مجرد استفهام نظري، بل هو تحد إثباتي جوهري يقف حائلاً دون تطبيق سلس ومقنع لنموذج مسؤولية الحارس على أنظمة الذكاء الاصطناعي عالية الاستقلالية.

مسؤولية المنتج كأساس للمسؤولية المدنية عن فعل الذكاء الاصطناعي:

يمثِّل توجه البرلمان الأوروبي الرامي إلى إخضاع أنظمة الذكاء الاصطناعي لإطار مسؤولية المنتج نقلةً نوعية في الاعتراف بضرورة معالجة الأضرار الناجمة عن هذه التقنيات ضمن نطاق المسؤولية الموضوعية[20]. ففي مقابل نموذج الحارس الذي يرتكز على فكرة السيطرة المباشرة، يُقدّم نظام مسؤولية المنتج مدخلاً قانونياً بديلاً يستند إلى مبدأ تحمُّل المخاطر الناجمة عن العيوب. بينما يتعذر إثبات «الحراسة الفعلية» على نظام ذكي مستقل، يمكن النظر إلى هذا النظام باعتباره منتجاً صناعياً يخضع للمسؤولية المفترضة عن العيوب الكامنة في تصميمه أو تصنيعه أو توجيهاته، وذلك وفقاً لنظرية «المخاطر التي يخلقها المنتج»[21] .

غير أن التطبيق العملي لهذا النموذج على الأنظمة ذاتية التعلم يفرز إشكاليات عميقة تستدعي إعادة نظر متأنية. تتعارض الطبيعة الديناميكية لهذه الأنظمة مع الافتراضات التقليدية التي يقوم عليها مفهوم مسؤولية المنتج، حيث تضعف القدرة على التطور الذاتي الصلة السببية المطلوبة بين الضرر وبين تقصير يمكن إسناده للمطور. ففي ظل تعقيد الخوارزميات وضخامة البيانات، يصبح من العسير تحديد ما إذا كان العيب ناتجاً عن خلل في البنية الخوارزمية الأولية، أو تحيز كامن في مجموعة بيانات التدريب، أو سلوك استقرائي تولده العملية التعلمية اللاحقة، أو تفاعل غير متوقع مع محيط التشغيل[22].

ويُفاقم من هذه المعضلة غياب معايير موضوعية راسخة تحدد حدود «الحيطة الواجبة» المتوقعة من المطور، مما يطرح تساؤلاً حول إمكانية تطبيق معايير المسؤولية التقليدية على مجال تقني سريع التطور ويخلو من المقاييس المهنية المستقرة. كما يتعقد الوضع مع تعدد الجهات الفاعلة في سلسلة الإنتاج، حيث لا ينتج النظام الذكي عن جهة واحدة، بل هو محصلة سلسلة إنتاجية معقدة تمتد من موردي البيانات ومصممي النماذج الأساسية إلى المطوّرين والمصنّعين والمشغلين، مما يشتت المسؤولية.

نحو أولوية جبر الضرر: اقتراح لنموذج مشترك للمسؤولية والضمان:

يُجسّد الجدل الفقهي الدائر حول منح الشخصية القانونية للذكاء الاصطناعي إحدى المحاولات الجديرة للتعامل مع كيان رقمي جديد لم تتعامل معه النصوص القانونية التقليدية. وهذا الجدل، في جوهره، ينبع من سؤال تأسيسي: هل يمكن للنصوص القانونية التي صُممت في بيئة تقليدية ملموسة أن تستوعب تعقيدات البيئة الرقمية بكل حداثتها وتجريدها؟ أم أن واقع التقنية الجديد يفرض علينا النهوض بصياغة نصوص قانونية خاصة، مرنة ومبتكرة، تواكب طبيعة هذا العالم الرقمي المتسارع؟

لذا، فإن الانشغال بالسؤال التقليدي «من المسؤول؟» أو «هل نمنح الذكاء الاصطناعي شخصية قانونية؟» قد يصرف الانتباه عن الهدف الجوهري والأكثر إلحاحاً. فالمسؤولية المدنية، في مقصدها النهائي، هي آلية اجتماعية لاستعادة التوازن وجبر الضرر. ومن هذا المنظور، يجب أن يتحول السؤال المركزي من «من المخطئ؟» إلى «كيف نضمن جبر الضرر» للمتضرر بطريقة عادلة وفعالة؟

يتطلب تحقيق هذه الغاية إحداث توازن دقيق بين حماية حقوق المضرور، وبين عدم كبح جماح البحث العلمي والتطور التقني. ولا يتحقق هذا التوازن إلا بالانتقال من منطق المواجهة إلى منطق التضامن في تحمل المخاطر. يمكن البناء على هذا المبدأ من خلال مرحلتين:

أولاً: الاستفادة من الأطر القانونية القائمة وتطويعها:

مثل قوانين حماية المستهلك التي تسعى إلى تحقيق توازن منصف بين المنتج والمستخدم، ويمكن تطويرها لتشمل علاقة أكثر تعقيداً هي علاقة المطور/ المنتج بالنظام الذكي وبالمتضرر.

ثانياً: الابتكار التشريعي لمواكبة الحداثة الرقمية:

باستحداث أطر قانونية جديدة تتعامل مع الذكاء الاصطناعي كواقع تقني مستقل. وهذا يتطلب نموذجاً هجيناً يجمع بين:

•  مسؤولية موضوعية وتضامنية تفرض على عاتق حلقات السلسلة الرئيسية (المطور، المنتج، المشغل التجاري) ضمان تعويض سريع للمتضرر.

•  آليات تمويل جماعية (كالتأمين الإلزامي وصناديق الضمان) لتوزيع الأعباء المالية للمخاطر النادرة والجسيمة، وحماية الابتكار من أعباء غير متوقعة.

•  نظام إداري تنظيمي (كَسجِل مركزي واشتراطات شفافية) لتحقيق قدر من الرقابة والمساءلة.

•  الذكاء الاصطناعي لم يعد مفهوماً مستقبلياً، بل أصبح واقعاً حياً يؤثر في مناحي الحياة كافة. واستجابة القانون لهذا الواقع لا تكون بالتمسك الحرفي بتصورات قديمة أو بالاستغراق في جدالات نظرية مجردة، بل بالإبداع التشريعي الذي يرتكز على تحقيق العدالة التعويضية كهدف نهائي، ويبني أدوات عملية لتحقيقها في العصر الرقمي.

وفي الأخير فإن إشكالية مسؤولية الذكاء الاصطناعي ليست مجرد تحدٍ قانوني عابر، بل هي اختبار لقدرة النظام القانوني على التجدد الوظيفي في مواجهة التحولات التكنولوجية الجذرية. الحل لا يكمن في الانكفاء على النماذج القديمة، ولا في استباقات نظرية غير ناضجة، بل في شجاعة التقنين لابتكار أدوات مرنة وعملية. يجب أن يحول هذا الابتكار التركيز من السعي إلى محاسبة «الكيان الرقمي» إلى بناء نظام عادل لتوزيع مخاطر التقدم. إنها دعوة لإرساء عدالة تعويضية جديدة، توفق بين واجب حماية الإنسان من أخطار التقنيات التي اخترعها، وضمان استمرار زخم الابتكار الذي يخدم البشرية في عصر رقمي أصبح فيه الذكاء الاصطناعي واقعاً لا مفر منه.

الخاتمة

أولاً: النتائج:

•  توصلت هذه الدراسة إلى مجموعة من النتائج الرئيسية التي تكشف عن طبيعة الإشكالية القانونية لأضرار الذكاء الاصطناعي وآفاق معالجتها:

•  تعذر استيعاب الأنظمة الذكية ضمن التصنيف القانوني التقليدي: أظهر التحليل أن الثنائية التقليدية (الشخص/ الشيء) تعجز عن استيعاب الطبيعة الهجينة للأنظمة الذكية ذاتية التعلم، التي تجمع بين خصائص الأداة والاستقلالية الوظيفية.

•  القصور الجوهري للنظريات التقليدية للمسؤولية: كشفت الدراسة عن عجز نظريتي المسؤولية التقصيرية والعقدية عن معالجة أضرار هذه الأنظمة، بسبب «فجوة التصميم والسلوك» وتعقيد إثبات العلاقة السببية في بيئة خوارزمية معقدة ومتطورة.

•  عدم كفاية النماذج الموضوعية القائمة: بينما تقدم نماذج المسؤولية الموضوعية (كمسؤولية الحارس والمنتج) مدخلاً أكثر ملاءمةً من حيث التركيز على توزيع المخاطر، فإن تطبيقها على الذكاء الاصطناعي يواجه تحديات عملية، خاصة صعوبة إثبات «السيطرة» في نموذج الحارس، وعدم وضوح معيار «العيب» في نموذج المنتج بالنسبة للأنظمة القابلة للتعلم الذاتي.

•  الطبيعة التشاركية للمسؤولية: تؤكد الدراسة أن المسؤولية عن أضرار الذكاء الاصطناعي هي بطبيعتها مسؤولية تشاركية، تنشأ عن سلسلة معقدة من الأطراف (مطور، مصمم، مقدم بيانات، مشغل)، مما يستدعي نماذج قانونية قادرة على توزيع الأعباء وليس إسنادها لفرد واحد.

•  أولوية جبر الضرر كهدف استراتيجي: خلص التحليل إلى أن النقاش النظري حول «الشخصية القانونية» يجب أن يحل محله التركيز العملي على ضمان تعويض فعّال وسريع للمتضرر، من خلال بناء آليات مالية وتأمينية مضمونة.

ثانياً: التوصيات:

بناءً على النتائج السابقة، تقدم الدراسة التوصيات التالية:

تطوير إطار تشريعي خاص ومتدرج:

وضع تشريع خاص بالمسؤولية عن أضرار الأنظمة الذكية، يميز بين الأنظمة التنفيذية البسيطة (التي يمكن تطبيق القواعد التقليدية عليها) والأنظمة ذاتية التعلم عالية الاستقلالية (التي تحتاج لقواعد خاصة).

تبني نموذج هجين للمسؤولية يقوم على دعامتين:

-   مسؤولية موضوعية وتضامنية: تُفرض على عاتق المطور والمنتج والمشغل التجاري الرئيسي معاً (كمسؤولين متضامنين أمام المتضرر)، مع الاكتفاء بإثبات العلاقة السببية بين عمل النظام والضرر.

-   حق الرجوع الداخلي: بين هؤلاء المتضامنين وفقاً لدرجة مساهمتهم الفعلية في إحداث الخطر، بناءً على معايير يحددها القانون (كالتصميم، التدريب، التشغيل).

إلزامية آليات الضمان المالي الجماعي:

-   فرض تأمين إلزامي ذي سقف عالٍ على مطوري ومشغلي الأنظمة عالية الخطورة.

-   إنشاء صناديق ضمان جماعية تُموَّل من اشتراكات إلزامية من الشركات العاملة في مجال الذكاء الاصطناعي داخل كل قطاع، مثل: (النقل، الصحة). تعمل هذه الصناديق كشبكة أمان أخيرة لتغطية الأضرار الكارثية أو في حال عجز التأمين أو الشركة المسؤولة.

إنشاء منظومة إدارية رقابية مصاحبة:

-   إنشاء سجل مركزي لأنظمة الذكاء الاصطناعي عالية الاستقلالية، يلزم بتسجيل البيانات الفنية والغرض من الاستخدام ويُحدَّث بسجلات التشغيل والأداء.

-   فرض متطلبات الشفافية والقابلية للتفسير (Explain ability) على الأنظمة الذكية، مع حفظ سجلات مركز القرار (شبيهة بـ«الصندوق الأسود») لتسهيل عملية التحقيق في أسباب الحوادث وإثبات السببية أو نفي الإهمال الجسيم.

تشجيع تطوير المعايير الفنية والقانونية:

-   حث الهيئات المعنية (الهندسية والقانونية) على وضع معايير مهنية طوعية وإلزامية تدريجياً لتصميم وتطوير وتدريب الأنظمة الذكية، لتكون مرجعاً لتقييم مدى «الحيطة الواجبة».

-   تشجيع التحكيم والفصل المتخصص في منازعات الذكاء الاصطناعي، مع تأهيل القضاة والخبراء في المجال التقني- القانوني.

 

قائمةالمراجع

أولاً: الكتب القانونية العامة:

•  أنور طلبة، المسئولية العقدية، ط1، المكتب الجامعي الحديث الأزريطة- الإسكندرية، 2005م.

•  عبد الرزاق السنهوري، الوسيط في شرح القانون المدني، ج1، دار احياء التراث العربي، بيروت، 1952م.

•  عبد الرزاق السنهوري، الوسيط في شرح القانون المدني، دار النهضة العربية، القاهرة، 1964م.

•  عز الدين الديناصوري؛ عبد الحميد الشواربي، المسؤولية المدنية على ضوء الفقه والقضاء، دار الكتب والدراسات العربية، مصر، بدون تاريخ.

•  محمد بن حسين الشامي، نظرية المسؤولية المدنية في القانون المدني واليمني والمصري والفقه الإسلامي، ط2، مكتبة الجيل الجديد، صنعاء، 2020.م

ثانياً: الكتب الخاصة:

•  أروي عبد الرحمن عثمان الجلعود، أحكام تطبيقات الذكاء الاصطناعي، مركز قضاء للبحوث والدراسات، 1444هـ.

ثالثاً: الرسائل العلمية:

•  ندرومي نصيرة، الروبوت الذكي والمسؤولية المدنية عن الأضرار المترتبة، رسالة ماجستير، المركز الجامعي مغنية، 2024/2025م.

•  لعمارة طارق زياد؛ ميمون سفيان، المسؤولية المدنية الناشئة عن استخدام تقنيات الذكاء الاصطناعي في التشريع الجزائري، رسالة ماجستير، جامعة محمد بوضياف، 2024م.

 

رابعاً: المقالات والدوريات العلمية:

•  أحمد بلحاج جراد، الشخصية القانونية للذكاء الاصطناعي.. استباق مضلل، مجلة كلية القانون الكويتية العالمية، السنة الحادية عشر، العدد 2، 2023م.

•  أمل فوزي أحمد عوض، الذكاء الاصطناعي كأداة جديدة للعدالة، المركز الديمقراطي العربي، 2023م.

•  حمدي أحمد سعد أحمد، الطبيعة القانونية للذكاء الاصطناعي، المؤتمر العلمي الدولي الرابع، كلية الشريعة والقانون، طنطا، مصر، 2021م.

•  سهام المر، الروبوت الذكي بين إشكالية الاعتراف بالشخصية القانونية وإنكارها، مجلة القانون والعلوم السياسية، المجلد 9، ع 20، 2023م.

•  شذي عبد جمعه الربيعي، المسؤولية المدنية عن فعل تقنيات الذكاء الاصطناعي (التطور في ظل الثبات)، جامعة الفراهيدي، العراق، 2025م.

•  محمد إبراهيم حسانين، الذكاء الاصطناعي والمسؤولية المدنية عن أضرار تطبيقه، المجلة القانونية، كلية الحقوق، الخرطوم، مجلد 15، عدد 1، 2023م.

•  محمد عرفان الخطيب، المسؤولية المدنية والذكاء الاصطناعي.. إمكانية المساءلة؟ دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مجلة كلية القانون الكويتية العالمية، السنة الثامنة، العدد 1، مارس 2022م.

•  محمود حسن السحلى، أساس المساءلة المدنية للذكاء الاصطناعي المستقل، قوالب تقليدية أم رؤية جديدة، مجلة كلية الحقوق للبحوث القانونية والاقتصادية، العدد 2، 2022م.

•  ناريمان مسعود، المسؤولية عن فعل الأنظمة الإلكترونية الذكية، مجلة حوليات الجزائر، مجلد 1، 2018م.

•  هبة رمضان رجب يحيى، الشخصية القانونية للروبوت فائق الذكاء الاصطناعي، مجلة روح القوانين، كلية الحقوق، جامعة طنطا، عدد خاص، 2024م.

•  وفاء يعقوب جناحي، المركز القانوني للروبوتات الذكية ومسئولية مشغلها، مجلة الحقوق، العدد3، 2024م.

 

•  ياسر محمد اللمعي، المسئولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول، مجلة البحوث القانونية والاقتصادية، جامعة المنصورة، كلية الحقوق، 2021م.

خامساً: التشريعات:

•  القانون المدني اليمني رقم (14) لسنة 2002م، الجريدة الرسمية، العدد 6، 2009م.

 


 

[1]   تعرف الخوارزميات بأنها مجموعة من الإجراءات المرتبة ترتيباً منطقياً، والتييتم تنفيذها للوصول إلى هدفأو ناتج مطلوب وهي ترمزلتعليمات برمجية يكتبها مبرمج ويجمعها لإنتاج وحدة قابلة للتنفيذ وتعرف باسم برنامج، ولا يمكنلأنظمة الحاسوب العمل دون هذهالخوارزميات، وترجع تسميتها بهذا الاسم نسبة لعالم الرياضيات محمد بن موسيالخوارزمي، ندرومي نصيرة، الروبوت الذكي والمسؤولية المدنية عن الأضرار المترتبة، رسالةماجستير، المركز الجامعي مغنية، 2024/2025م، ص13.

 

[2]   للمزيد انظر د. أمل فوزي أحمد عوض، الذكاء الاصطناعي كأداة جديدة للعدالة، المركز الديمقراطي العربي، 2023م،ص14، سهام المر، الروبوت الذكي بين إشكالية الاعتراف بالشخصية القانونية وإنكارها، مجلةالقانون والعلوم السياسية، المجلد 9، ع 20، 2023م، ص4، تجدر الإشارة أنه ليسكل قطعة برمجية تعد ذكاءاصطناعياً، بل لا بدمن توافر ثلاث سمات: القدرة علىالتعلم، جمع البيانات وتحليلها، اتخاذ القرار بناء على عمليةتحليل البيانات، د. أرويعبدالرحمن عثمان الجلعود، أحكام تطبيقات الذكاء الاصطناعي، مركز قضاء للبحوث والدراسات، 1444هـ،ص10، ناريمان مسعود، المسؤولية عن فعلالأنظمة الإلكترونية الذكية، مجلة حوليات الجزائر، مجلد 1، 2018م، ص140ومابعدها.

 

[3]   وفاء يعقوب جناحي، المركز القانوني للروبوتات الذكية ومسئولية مشغلها، مجلة الحقوق، العدد3، 2024م ص421 ومابعدها.

 

[4]   د. أنور طلبة، المسئولية، المسئولية العقدية، ج1، ط1، المكتب الجامعي الحديث الأزريطة- الإسكندرية، 2005، ص7 وما بعدها، د. عبد الرزاق السنهوري، الوسيط في شرحالقانون المدني، ج1، دار إحياء التراث العربي، بيروت، 1952م،لبنان، بدون تاريخ، ص744، د. عزالدين الديناصوري، د. عبدالحميد الشواربي، المسؤولية المدنية على ضوءالفقه والقضاء، ج4، دارالكتب والدراسات العربية، مصر، بدون تاريخ، ص11.

 

[5]   د. عبد الرزاق السنهوري، الوسيط في شرحالقانون المدني، ج1، دار النهضة العربية، القاهرة، 1964م،ص 730.

 

[6]   لعمارة طارق زياد، ميمون سفيان، المسؤولية المدنية الناشئة عن استخدام تقنيات الذكاء الاصطناعي فيالتشريع الجزائري، رسالة ماجستير، جامعة محمد بوضياف، 2024م،ص9، وتجدر الإشارة هنا إلىأن الخطأ من حيثالوصف ينقسم إلى: الخطأ العمد، الخطأ غير العمد، الخطأاليسير والخطأ الذي لا يغتفر، ويؤثرالتصنيف القانوني للخطأ- منحيث وصفه ودرجته- تأثيراً جوهرياً علىتقدير التعويض المستحق عن الضرر. فبينما يُقصد بالتعويض أساساً جبر الضرروإعادة التوازن المالي للمتضرر، فإن النظرإلى نوع الخطأ يُدخل اعتبارات أخرى تثري عملية التقدير القضائي، وتجعلها أكثر دقة وعدالة. فالخطأ العمدي، بوصفه أقصى درجات التعسف، قد يُبررتعويضاً يزيد على مجردالتعويض المادي ليشمل تعويضاً تكميلياً (عنالألم المعنوي) ذاطابع جزائي رادع. بينماالخطأ غير العمدي (الإهمال) يقود عادة إلى تعويضمقصور على جبر الضررالمباشر. أما الخطأ الجسيم، والخطأ الذي لا يغتفرفيقترب في آثاره من الخطأالعمدي، وقد يُستدل به علىالاستهتار مما يُسوغ تعويضاً أكبر. فيالمقابل، قد يؤدي الخطأ اليسير إلى تخفيضفي قيمة التعويض. وبذلك، يخلقهذا التصنيف سُلّماً مرناً لتقدير التعويض، يحقق العدالة التصحيحية عبر مراعاة سلوكالمخطئ، ويتناسب مع مبدأأن الجزاء يجب أنيكون على قدر الفعل.

 

[7]   د. محمد بن حسينالشامي، نظرية المسؤولية المدنية في القانون المدني واليمني والمصري والفقه الإسلامي، ط2، مكتبة الجيل الجديد، صنعاء،2020م،ص31.

 

[8]   لعمارة طارق زياد، ميمون سفيان، رسالة سابقة، ص10.

 

[9]   د. محمد بن حسينالشامي، مرجع سابق، ص360 وما بعدها.

 

[10]  ويعتبر البعض أن المسؤولية تقومبركنين فقط هما الضرروالعلاقة السببية.

 

[11]  د. هبة رمضان رجب يحيى،الشخصية القانونية للروبوت فائق الذكاء الاصطناعي، مجلة روح القوانين، كليةالحقوق، جامعة طنطا، عدد خاص، 2024م، ص1007.

 

[12]  للمزيد انظر د. محمد عرفان الخطيب، المسؤولية المدنية والذكاء الاصطناعي.. إمكانية المساءلة؟ دراسةتحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مجلةكلية القانون الكويتية العالمية، السنة الثامنة، العدد 1، مارس 2022م، ص119 ومابعدها.

 

[13]  نصت المادة (49) من القانون المدني: « الأهلية نوعان: 1- أهليةوجوب للحقوق الشرعية للشخص وعليه تثبت منذ ولادته.2- أهلية أداء بمقتضاها يباشر الإنسان حقوقه المدنية».

 

[14]  د. محمد عرفان الخطيب، دراسة سابقة، ص120.

 

[15]  د. أحمد بلحاج جراد، الشخصية القانونية للذكاء الاصطناعي.. استباق مضلل،مجلة كلية القانون الكويتية العالمية، السنة الحادية عشرة، العدد 2، 2023م، ص245.

 

[16]  للمزيد انظر محمود حسن السحلى، أساسالمساءلة المدنية للذكاء الاصطناعي المستقل، قوالب تقليدية أم رؤيةجديدة، مجلة كلية الحقوق للبحوث القانونية والاقتصادية، العدد 2، 2022م، ص125، ياسرمحمد اللمعي، المسئولية الجنائية عن أعمالالذكاء الاصطناعي ما بين الواقع والمأمول، مجلةالبحوث القانونية والاقتصادية، جامعة المنصورة، كلية الحقوق، 2021م،ص862.

 

[17]  تمتلك الصين أكثر من مئةروبوت موزعة في المحاكم وتعملهذه الروبوتات على استرجاع بيانات القضايا والأحكام الماضية، كما تلجأالمحاكم الصينية إلى استخدام الذكاء الاصطناعي فيالتحقق من الأدلة المقدمة لها، والتعرف على الوجوه، للمزيد انظرد. أروي عبد الرحمن عثمانالجلعود، مرجع سابق، ص71.

 

[18]  د. محمد عرفان الخطيب، دراسة سابقة، ص126 وما بعدها، 

 

[19]  المادة (317): «حائز الشيء الذي يتطلب عناية خاصة أو حراسةكالآلات الميكانيكية يكون مسئولاً عما يحدثههذا الشيء من الضررعلى الغير ما لميثبت أن وقوع الضرر كان بسببأجنبي لا يد لهفيه».

 

[20]  حمدي أحمد سعد أحمد،الطبيعة القانونية للذكاء الاصطناعي، المؤتمر العلمي الدولي الرابع، كلية الشريعة والقانون، طنطا، مصر، 2021م،ص249.

 

[21]  ولا يفوتنا أن ننوهبأن التوجيه الأوروبي رقم (85/374/EC) الصادر في 25 تموز 1985م تناول المسؤولية الموضوعية بتحميل المنتج المسؤولية عن الأضرار الناجمة عنالمنتجات المعيبة، حتى في غيابالخطأ، على أن يكونسبب الضرر محل التعويض هوالعيب في المنتج، وتكون المسؤولية عن كافةأضرار منتجه حتى ولويكن هناك أي خطأأو إهمال من جانبه، إذيسعى هذا التوجيه إلى توزيعالمخاطر المتعلقة بالمنتجات التكنولوجية ، د. محمد إبراهيم حسانين، الذكاء الاصطناعي والمسؤولية المدنية عن أضرارتطبيقه، المجلة القانونية، كلية الحقوق، الخرطوم، مجلد 15، عدد 1، 2023م، ص212.

 

[22]    للمزيد انظر شذي عبدجمعه الربيعي، المسؤولية المدنية عن فعلتقنيات الذكاء الاصطناعي (التطور فيظل الثبات)، جامعةالفراهيدي، العراق، 2025م،ص586 وما بعدها.