
البحث عن حلول لضبط الذكاء الاصطناعي (3 من 3)
يستكشف الباحثون طرقاً لبناء آليات تسمح للبشر بالتدخل في عمليات صنع القرار
كتبت د. ريم حمود
ندرك تماماً أنّه بإمكان الذكاء الاصطناعي أن يعود بفوائد جمّة على البشرية.
لكن من أجل تسخير هذه الإمكانات كلّها، علينا أن نتأكّد من أنّ الفوائد تفوق الأخطار من جهة، وأن نفرض الحدود اللازمة في هذا الصدد من جهة أخرى.
وكي نكون فعالين وإنسانيين، وكي يتمحور تطوير التكنولوجيات الجديدة حول الإنسان، يجب أن يستند أي حل أو أي تنظيم إلى احترام حقوق الإنسان.
حيث يقدّم إطار حقوق الإنسان أساساً راسخاً يمكن الاستناد إليه لتوفير الحواجز اللازمة التي تحمينا من استغلال إمكانات الذكاء الاصطناعي الهائلة، وتمنع أخطاره الهائلة وتخفّف من حدتها.
وحيث أنّ الآثار الاجتماعية للذكاء الاصطناعي واسعة ومتعددة الأوجه.
ما يدفعنا للبحث عن كيفية الحد أو درء أخطار الذكاء الاصطناعي للاستفادة بالقدر الوافي من إيجابياته، وللتخفيف من هذه الأخطار، يعمل الباحثون وصناع السياسات على تطوير طرق آمنة وموثوقة لتصميم ونشر أنظمة الذكاء الاصطناعي. ويشمل ذلك وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة.
- تطوير أنظمة ذكاء اصطناعي تتماشى مع القيم الإنسانية:
ويتضمن ذلك تصميم أنظمة ذكاء اصطناعي تمت برمجتها بشكل صريح لإعطاء الأولوية لسلامة الإنسان ورفاهيته، ولتجنب الإجراءات التي من شأنها الإضرار بالبشر. ويمكن تحقيق ذلك من خلال دمج الاعتبارات الأخلاقية في تصميم وتطوير أنظمة الذكاء الاصطناعي.
- تطوير أنظمة ذكاء اصطناعي شفافة وقابلة للتفسير:
ويشير الذكاء الاصطناعي القابل للتفسير إلى قدرة أنظمة الذكاء الاصطناعي على تقديم تفسيرات واضحة ومفهومة لعمليات صنع القرار لديها. ويمكن أن يساعد ذلك في زيادة الشفافية والمساءلة، وتقديم رؤى حول كيفية وصول نظام الذكاء الاصطناعي إلى قراراته.
- تطوير طرق للتحكم في أنظمة الذكاء الاصطناعي وإدارتها:
على سبيل المثال، يستكشف الباحثون طرقاً لبناء آليات تسمح للبشر بالتدخل في عمليات صنع القرار بالذكاء الاصطناعي، أو لإغلاق أنظمة الذكاء الاصطناعي إذا بدأت في التصرف بشكل غير متوقع أو بطريقة ضارة.
- التعاون متعدد التخصصات بمعالجة أخطار الذكاء الاصطناعي:
يتضمن ذلك الجمع بين الخبراء من مجالات، مثل علوم الحاسوب والهندسة والأخلاق والقانون والعلوم الاجتماعية، للعمل معاً لتطوير حلول تعالج التحديات المعقدة التي يطرحها الذكاء الاصطناعي. ومن خلال العمل معاً، يمكن للباحثين وصانعي السياسات فهم الأخطار المرتبطة بالذكاء الاصطناعي بشكل أفضل، ووضع استراتيجيات فعّالة لإدارة هذه الأخطار.
- سُبُل التصدي لتلك الأخطار:
إنّ ملاحقة الأخطار التي يمثلها الذكاء الاصطناعي وتحديد ما يمكن فعله للتصدي لها، من الصعوبة بمكان، ذلك أنّ الأضرار التي يسببها الذكاء الاصطناعي في المجتمعات المعاصرة إنما هي من صنع الأمس.
إنّ أغلب الأجهزة المتطورة لم تُستخدم على نطاق واسع أو ليست مفهومة. وللتصدي للأخطار، دعا بعض الخبراء للتوقف عن تطوير أنظمة الذكاء الاصطناعي الأكثر تقدماً.
وعلى الحكومات أن تسن لوائح وقوانين كفيلة بضمان تطوير أنظمة ذكاء اصطناعي واستخدامها بمسؤولية. “فإذا طُبِّق ذلك على نحو صحيح، فإن تلك اللوائح لن تحد من الابتكارات في مجال الذكاء الاصطناعي”.
وعلى دول العالم استغلال الوقت لتحصين مجتمعاتها ضد أخطار الذكاء الاصطناعي العديدة، إذ يتعين عليها توظيف مجموعة واسعة من إجراءات الحماية، مثل إيجاد وسائل لمساعدة الناس على التمييز بين ما هو ذكاء اصطناعي وما هو محتوى من صنع البشر، ومد يد العون للعلماء وذلك بالكشف عن اختراق المختبرات والحد منها، وتطوير أدوات الأمن السيبراني التي تجعل البنيات التحتية الحساسة -مثل محطات الطاقة- تحت الإدارة المناسبة.
- تهيئة المجتمعات:
إنّ مواجهة هذه التحديات تتطّلب قدرة كبيرة على الإبداع من صنّاع السياسات والعلماء على السواء، والإسراع بإنجاز المهام المنوطة بهم، “فالمسألة مجرد وقت حتى تبدأ أنظمة الذكاء الاصطناعي البالغة القوة بالانتشار، فيما لم تتهيأ المجتمعات بعد لذلك”.
ويجب حظر أو تعليق تكنولوجيات الذكاء الاصطناعي التي لا يمكن تشغيلها بما يتماشى مع القانون الدولي لحقوق الإنسان إلى حين اعتماد الضمانات المناسبة في هذا الصدد.
أخيراً، قد يكون من المفيد استكشاف إمكانية إنشاء هيئة استشارية دوليّة معنيّة بالتكنولوجيات الشديدة الخطورة، على رغم أنّ هذا الحل ليس بسريع. وبإمكان هذه الهيئة أن تقدم وجهات نظر مختلفة بشأن كيفية مواءمة المعايير التنظيمية مع الأطر العالمية لحقوق الإنسان وسيادة القانون. ومن الممكن للهيئة أيضاً أن تشارك نتائج مداولاتها علنّاً وتقدم توصياتها بشأن حوكمة الذكاء الاصطناعي. هذا ما اقترحه الأمين العام للأمم المتحدة ضمن إطار الاتفاق الرقمي العالمي الخاص بالقمة من أجل المستقبل التي ستعقد هذا العام.
ختاماً، وفيما علينا التساؤل عن مدى خطورة الذكاء الاصطناعي، فإنّ الجواب “الصادق والمخيف” هو أن لا أحد يعرف.