الذكاء الاصطناعي بين التمكين والمخاطر المركّبة

مدة القراءة 8 دقائق

أبوظبي

المصدر: مفكرو الإمارات

أ.د. علي محمد الخوري

في مشهد عالمي تتداخل فيه التكنولوجيا بالاقتصاد والسياسة والمجتمع، يتصدر الذكاء الاصطناعي واجهة التحولات الكبرى التي تعيد صياغة العالم المعاصر. وهذه التقنية التي فتحت آفاقًا غير مسبوقة في مجالات البحث والإنتاج والتخطيط، خلقت في الوقت نفسه بيئة من المخاطر المُركّبة تتجاوز الأخطاء التقنية، إلى المساس بجوهر القيم الإنسانية والنظم القانونية والسيادية؛ فالإمكانيات التي تمنحها الخوارزميات قادرة أيضًا على خلخلة التوازن الدقيق بين الحرية والمسؤولية، وبين الابتكار والانفلات.

وبات الذكاء الاصطناعي يُمثّل منظومة معرفية واقتصادية جديدة ذات أثر متغلغل في بنية الدولة الحديثة؛ فمظاهر الضرر التي قد تُحدثها أنظمته مُتعددة، فقد تخطئ الأنظمة الطبية المؤتمتة في التقدير السريري بسبب ضعف جودة البيانات التي صُمّمت عليها؛ ويمكن للمنصات المالية الذكية أن تتحوّل إلى أدوات لإعادة إنتاج الفوارق الاجتماعية عندما تُبنى على بيانات مشوبة بالخطأ، وتعتمد على قواعد بيانات تحمل تحيّزًا بنيويًّا في جمعها أو تصنيفها. كما أن غياب الإشراف التنظيمي على جمع البيانات الشخصية يسمح بتحوّل البيانات إلى موردٍ تجاريّ غير خاضع للرقابة ليمثل أحد أوجه الاقتصاد الرمادي الجديد. أما المحتوى المزيف بتقنيات التزييف العميق، بصوره وصوته، فقد أصبح أداة للتضليل والتشهير، وإرباك الوعي العام وإضعاف الموثوقية المؤسسية.

وتشير التقارير المتخصصة إلى أن الجرائم الإلكترونية المدعومة بتقنيات الذكاء الاصطناعي ستُكلف الاقتصاد العالمي ما يزيد على عشرة تريليونات دولار بحلول عام 2025. كما تُظهر بيانات مراكز البحوث أن الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي ستصبح واقعًا يوميًّا تواجهه المؤسسات في المستقبل القريب، وأن هذا الاتجاه مُرجّح أن يتصاعد في العامين المقبلين. وهذه المؤشرات تكشف عن تصاعد المخاطر التقنية، وتُبرز أيضًا اتساع الفجوة بين سرعة الابتكارات من جهة، وقدرة القوانين والرقابة على مجاراتها من جهة أخرى.

إن توزيع المسؤولية في هذا السياق قضية معقّدة تتقاطع فيها الأبعاد القانونية والأخلاقية والاقتصادية؛ فالمطوّر يتحمل مسؤولية عيوب التصميم أو الإخفاق في الاختبار، والشركة المنتجة مسؤولة عن الضرر الناتج من منتجها، والمستخدم مسؤول عن الاستخدام الخطأ أو غير الآمن للنظام. أما الدولة، فإن مسؤوليتها غير مقصورة على سنّ القوانين فقط، بل تشمل أيضًا بناء منظومة تشريعية متكاملة تستبق الخطر بدلًا من أن تلاحقه، وتعمل على ترسيخ ثقافة الاستخدام الآمن والمسؤول للتقنيات الذكية. والمثير هو أن بعض الأوساط التشريعية قد تقدمت بمقترحات لمنح بعض الأنظمة الذكية صفة قانونية جزئية، بصفتها كيانات لها بعض الحقوق والواجبات، ولتحميلها قدْرًا من المسؤولية المقيّدة بحدود برمجتها وسلوكها الآلي، إلا أن هذه الفكرة لا تزال منطقة رمادية في المدارس القانونية والفكرية.

وتستلزم الوقاية من أضرار الذكاء الاصطناعي ومخاطره رؤيةً تركيبيةً تتعامل مع الظاهرة بصفتها بنية معرفية واقتصادية وأخلاقية متشابكة؛ فمن غير الممكن فصل التقنية عن السياقات الأخلاقية والقانونية والاجتماعية التي تعمل ضمنها. والشفافية في تصميم الخوارزميات ضرورة لا بدّ منها، بحيث يمكن تتبع آلية اتخاذ القرار ومراجعة أسسها المنطقية. كما ينبغي تطوير آليات مساءلة واضحة منذ المراحل الأولى للتطوير، تشمل المطورين والشركات ومؤسسات الرقابة. وفي الوقت نفسه تُعد عملية تصحيح الانحيازات الخوارزمية داخل الأنظمة الذكية خطوة تأسيسية لحماية مبادئ العدالة الاجتماعية وضمان تكافؤ الفرص. ويتطلب تحقيق ذلك تنويع مصادر البيانات لتشمل تمثيلًا واسعًا لمختلف الفئات والمناطق والثقافات، وتحديثها باستمرار؛ كي لا يُعاد إنتاج الأنماط المجتمعية المتحيزة في القرارات الآلية.

وتحتاج المواجهة كذلك إلى ترسيخ الوعي العام بالمخاطر الكامنة في الذكاء الاصطناعي، بدءًا من الأفراد الاعتياديين وصولًا إلى صنّاع القرار؛ فالمعرفة هنا تمثل خط الدفاع الأول. ومن المهم أن تُدرج مفاهيم “التربية الرقمية” ضمن المناهج التعليمية؛ لتنشئة جيل يدرك معنى الاستخدام الواعي للتكنولوجيا، ويملك أدوات التفكير النقدي التي تمكّنه من تمييز المعلومة الصحيحة من التضليل الرقمي. كما ينبغي أن تنخرط مؤسسات المجتمع المدني في بناء فضاءات تفاعلية تساعد الأفراد على فهم التقنية ومناقشة آثارها، عبر المبادرات التوعوية ومساحات النقاش المفتوحة التي تسهم في تحويل الذكاء الاصطناعي إلى طاقة بنّاءة، لا منظومة غامضة قد تخلق فجوة نفسية ومعرفية بين الإنسان والآلة.

ويُعيد الذكاء الاصطناعي رسم موازين القوى العالمية من منظور الاقتصاد السياسي؛ فالدول التي تسيطر على تقنيات التعلم الآلي والبيانات الضخمة تتحكم عمليًّا في مفاتيح الاقتصاد المعرفي، وتفرض هيمنتها عبر “القوة الرقمية الناعمة”. وإن غياب استراتيجية عربية موحدة في هذا المجال يجعل المنطقة ساحة جيو-رقمية لتجارب القوى الكبرى؛ أي ساحة لاختبار ابتكاراتها الجديدة وتجريبها، من دون أن تكون الدول المحلية شريكة فعلًا في التطوير أو في وضع الضوابط القانونية. ومن هنا تأتي الحاجة إلى تحالفات إقليمية لإنشاء منصات وطنية مشتركة لتبادل البيانات وتطوير البحوث وتدريب الكفاءات، بحيث يتحول الذكاء الاصطناعي من حالة اعتماد كلي على أنظمة ذكاء اصطناعي أجنبية لإدارة الأمن والاقتصاد، إلى حالةٍ تملك فيها الدولة أدوات السيادة المعرفية والاقتصادية، وتنتقل من موقع المُتلقي والتابع إلى موقع الفاعل والمُنتج للمعرفة.

ولا يقلّ الجانب الأمني أهمية عن البعد الاقتصادي؛ فقد باتت الخوارزميات تُستخدم في التنبؤ بالتحركات العسكرية، ورصد الأنماط الاجتماعية، بل وفي إدارة الرأي العام؛ لذلك ينبغي التركيز على بناء منظومة دفاع رقمي قادرة على التعامل مع الهجمات الذكية بالذكاء نفسه عبر أنظمة رصد فوري وتحليل استباقي. ويُعد الاستثمار في الأمن السيبراني، وفي تطوير فرق متخصصة قادرة على إدارة الأزمات الرقمية، خيارًا استراتيجيًّا لحماية البنية التحتية الرقمية للدول.

ومن أجل تحقيق ذلك تبرز مجموعة من التوصيات ذات أولوية: أولها، تأسيس إطار تشريعي متكامل يحدد مسؤولية الأطراف كافة، ويرسخ مبدأ الشفافية في بناء النماذج الخوارزمية. وثانيها، بناء منظومات وطنية للذكاء الاصطناعي الآمن تتكامل فيها مؤسسات الدولة مع القطاع الخاص والجامعات والمجتمع المدني. وثالثها، الاستثمار في البنية التحتية للمعرفة والأمن الرقمي، بصفته استثمارًا في الاستقرار السياسي والاقتصادي معًا. ورابعها، تطوير برامج تأهيل مستمرة للعاملين في مجالات القضاء والأمن والبحث العلمي؛ ليتمكنوا من التعامل مع الجرائم المستحدثة، ويواكبوا التطور التقني السريع.

ولا تقتصر معالجة مخاطر الذكاء الاصطناعي على الضبط فقط، بل تتصل أيضًا بقدرة المجتمعات على فهم التحولات الكبرى التي تصوغ مستقبلها. إن المسألة تتجاوز حماية البيانات أو منع الجريمة، لتصل إلى إعادة تعريف العلاقة بين العالم البشري والعقل الاصطناعي، وبين المبادئ الأخلاقية والتطور التكنولوجي، وبين السيادة الإنسانية وسلطة الخوارزميات. وهذه المفترقات ستكون المحدِّد الرئيسي لاتجاهات القرن الجديد.

ويبدو -في النظرة المستقبلية- أن الذكاء الاصطناعي لن يكون مجرد أداةٍ للتقدّم فقط، بل مقياسًا لمدى إنسانية هذا التقدّم نفسه أيضًا. والتكنولوجيا ليست خيرًا مطلقًا ولا شرًّا مطلقًا، فنتائجها تتحدد تبعًا للطريقة التي تُستخدم بها؛ فإن استُخدمت بوعيٍ ومسؤولية وضمن ضوابط أخلاقيةٍ وقانونيةٍ واضحة، أسهمت في خدمة المجتمعات وتعزيز السلم والعدالة والرفاهية. أمّا إذا استخدمت بعشوائية أو خارج الأطر المنضبطة، فقد تُفرز أنماطًا جديدة من الهيمنة تُعمّق التفاوتات الطبقية والاجتماعية بين الشعوب والأفراد. وتكمن الخطورة الكبرى في أن هذه الهيمنة قد تكون بصورة غير مرئية تُمارَس فيها السلطة عبر البيانات والخوارزميات، ومن خلال السيطرة على المعلومة والوعي.

ويتطلب بناء توازن إنساني جديد في عصر الذكاء الاصطناعي قيادة فكرية عالمية تتجاوز حدود المصالح التقنية والاقتصادية الضيقة، وتملك رؤية وعقلية ترى أبعد من بريق الحلول السريعة، وتدرك أهمية ضبط إيقاع الثورة الرقمية ضمن حدود الضمير ومنظومة القيم؛ لتعيد توجيه دفة التقدم نحو الغاية الإنسانية، لا غاية الخوارزميات أو الشركات التي تطورها.

مستشار مجلس الوحدة الاقتصادية العربية ورئيس الاتحاد العربي للاقتصاد الرقمي بجامعة الدول العربية وعضو المكتب التنفيذي للاتحادات النوعية في الجامعة العربية.