الذكاء الاصطناعي: المخاطر العملية والتحديات التشريعية
علينا أن نتحرك بسرعة قبل أن تقرر "آريا" أن تطبق الدستور بنفسها!!
محمود محمد علي صبره
استشاري الصياغة التشريعية للأمم المتحدة والبنك الدولي
لطالما حلم الإنسان بأن تكون الآلات لديها ذكاء البشر وقدراتهم.ويُعرّف "الذكاء الاصطناعي" بأنه "نظام يحاكي تصرفات الإنسان في مواجهة ظروف معينة." ويُعرّف أيضا بأنه "نظام يمكنه حل مشكلات معقدة والتصرف، بنفسه دون أن يتحكم فيه أي أحد، وفق ما يراه مناسبا في أية ظروف واقعية يواجهها." وخلال العقدين الماضيين، حدث تقدم رهيب في استخدام نظم الذكاء الاصطناعي في مختلف المجالات،بل إنها تفوقت على الإنسان نفسه. ولم يكن أحد يظن أن الكمبيوتر يمكنه أن يهزم "كاسباروف" بطل العالم في الشطرنج.
ورغم التقدم التكنولوجي الكبير الذي حققتههذه النظم في مجال تحسين القانون وتفسيره وتسهيل الوصول إليه، وتحسين عمل القضاة وأعضاء النيابات العامةوالمحامين، وتخفيف العبء على المحاكم من خلال إجراء المحاكمات عبر شبكة الانترنت،فإنها تشكل مخاطر وتحديات قانونية خطيرة، خصوصا، في مجال استخدام الإنسان الآلي "الروبوت"، وأجهزة الاستشعار، والعالم الافتراضي، والطائرات المُسيّرة، والسيارات الذكية التي تتحكم في نفسها، ناهيك عن تأثيراتها السلبية على حقوق الإنسان وحماية الخصوصية والبيانات الشخصية، ومبادئ النزاهة،والشفافية، وعدم التمييز في اتخاذ القرار،وعدم الانحياز لفئة اجتماعية على حساب فئات أخرى.
ولنفرض أن سيارة ذكية تحمل راكبا واحدا تضطر إما إلى أن تصطدم بمجموعة من المارةأو تنحرف عن الطريق ويلقي الراكب مصرعه.إن السيارة قد تتم برمجتها للحفاظ على حياة الراكب،وتصطدم بالمارة؛ ما يؤدي إلى مصرع عدد كبير من الناس بدلا من مصرعالراكب. لكن هل يجوز للشركة المُنتجة تغيير خيارات السيارة بحيث "لا تضر بالغير" وتضحي بحياة الراكب بدلا من أن تكون "سيارة أنانية"؟من المؤكد أنه إذا أعطت الشركة تعليمات للمبرمجين بتنفيذ أي من الخيارين، ستكون مسئولة في الحالتين على أساس مسئولية المتبوع عن تابعه.لكن، هل سيكون المبرمجون مسئولون أيضا؟ وهل يمكن أن يسمح القانون بإعطاء المستهلكين الخيار بين التضحية بالراكب أو المارة؟ وما الالتزامات التي سيفرضها القانون على الشركة المُنتجة، أو الأفعال التي سيحظرها عليها، أو يسمح بها في هذه الحالة؟ ومالم يضع البرلمان تشريعا خاصا للمركبات الذكية، ستطبق المحاكم مبادئ المسئولية التقصيرية التي تقوم على إثبات حدوث الخطأ أو الإهمال والعلاقة السببية بين الخطأ والضرر.
وفي الولايات المتحدة، صدرت بالفعل تشريعاتتنظم تصميم هذه النظم واستخدامها، خصوصا، في المجالات التي تؤثر على حياتنا أو موتنا، مثل، المركبات الذكية، والتشخيص والعلاجالطبي، وأخرى تحظر استخدامها بسبب المخاوف من عدم دقتها.وفي يناير 2000، حدثت ضجة كبيرة بسبب القبض على رجل أسود في الولايات المتحدة، بسبب خطأ في نظام التعرف على الشخصية عن طريق الوجه.ويُعطي "قانون الاتحاد الأوروبي لحماية البيانات" الأفراد الحق في الطعن في أي قرار اتخذته آلة يؤثر على حقوقهم أو مصالحهم المشروعة. (... انظر تكلمة المقال، ص-2).
وفي مجال القضاء، ستجد المحاكم نفسها مضطرة لأن تطبق مبادئ قانونية تقليدية في مواجهة نظم معقدة وغير مفهومة. ويُلاحظ أنه قد حدثت فعلا زيادة ملحوظة في الدعاوى التي رفعها عمال ضد الشركات التي يعملون فيها بسبب إصابتهم من جراء استخدام الروبوت. وسيكون من الصعب على جهات التحقيق والقضاء محاسبة المسئولين عن الجرائم المرتكبة باستخدام نظم الأسلحة الذكية.ولأن هذه النظم تقوم بأعمال يمكن أن تشكل جرائم، لو قام بها أشخاص عاديون، فإن المحاكم ستحتار عند تحديد المسئول عنها. وقد تلجأ منظمات الجريمة المنظمة وكيانات أخرى إلى استخدامها. ومثال ذلك، اغتيال "فخري زاده"، العالم النووي الإيراني، عن طريق مدفع رشاش يعمل ذاتيا دون تدخل أي عنصر بشري.
وتقتضي هذه التحديات ضرورة وضع تشريعات خاصة تنظم تصميم هذه النظم والترخيص باستخدامها،وتحديد الجهات التي تراقبها، والإطار القانوني الذي تخضع له. مثلا: هل تخضع للمساءلة الجنائية، على أساس الإهمال وعدم الاحتياط وربما العَمْد، أم للمساءلة المدنية وفق قواعد المسئولية التقصيرية، أم للمسئولية المُفترضة عن المنتجات المعيبة؟وقد حدث تحول كبير في العالم نحوالتركيز على المسئولية المُفترضة بدلا من التركيز علىالإهمال أو الخطأ. كذلك، تثار أسئلة عدة حول القانون الذي تخضع له هذه النظم: هل تخضع لقوانين مكافحة الاحتكار؟ أم قانون الوكالة التجارية؟ أم قانون حماية المستهلك؟بل تُثار أيضا مسألة ما إذا كان يمكن اعتبارها أشخاصا قانونية، أم لا.وقد اقترحت حلول لهذه المشكلات، لكنها مازالت في طور الاختبار.
وفي رأي "فلاديمير بوتين"، رئيس روسيا، إن "الدولة التي ستتحكم في الذكاء الإصطناعي ستحكم العالم."وفي سنة 2017، أعلنت الصين أنها تنوي أن تصبح زعيمة العالم في مجال الذكاء الاصطناعي بحلول سنة 2030. ويتنبأ "إلون ماسك" بأن نظم الذكاء الاصطناعي ربما تكون السبب في اندلاع الحرب العالمية الثالثة. ويقول "ستيفن هوكنج" "إن تطور الذكاء الاصطناعي يمكن أن يكون نذير شؤم ينبئ بقرب نهاية الجنس البشري."
وهناك مخاوف من أن تتطور هذه النظم وبدلا من أن يتحكم فيها الإنسان،تتحكم هي فيه. وقد عَبّر عن هذه المخاوف الفيلم السينمائي الأمريكي Eagle Eye "عين الصقر" الذي تم عرضه في سنة 2008. وتدور أحداثه حول تصميم وزارة الدفاع الأمريكية كمبيوتر ضخم للمساعدة في تحديد أماكن الإرهابيين. ويتحدث الكمبيوتر، الذي أُطلق عليه اسم "آريا" ARIIA، كما لو كان امرأة.ويحذر الكمبيوتر من شن هجوم على هدف يعتقد أنه بريء، لكن القوات الأمريكية تنفذ الهجوم رغم اعتراضه.لذلك، يقرر الكمبيوتر الإطاحة بالحكومة والسيطرة بنفسه على الدولة استنادا إلى مادة في الدستور الأمريكي!!
وفي رأينا، رغم إن هناك قوانين في كل الدول تنظم مسائل مثل المسئولية عن الضرر الناشئ عن الإهمال والعمل غير المشروع، والمنتجات المعيبة، وحماية حقوق الملكية الفكرية، وحقوق الإنسان، وغيرها، هناك حاجة مُلحّة إلى وضع تشريعات خاصةفي الدول العربية تنظم تصميم نظم الذكاء الاصطناعي واستخدامها في مختلف المجالاتوقواعد المسئولية ذات الصلة.وعلينا أن نتحرك بسرعة قبل أن تقرر "آريا" أن تطبق الدستور بنفسها!!