اقتصاد

ماذا لو قرر الذكاء الاصطناعي عدم حاجته للبشر وأراد التخلص منا؟


طرح الملياردير والمؤسس المشارك لشركة “مايكروسوفت”، بيل غيتس، العديد مـن التساؤلات حول أخطار الذكاء الاصطناعي، والتي وصفها بأنها قد تكون هائلة. مثل ماذا سيحدث للأشخاص الذين فقدوا وظائفهم بسـبب آلة ذكية؟ وهل يمكن ان يؤثر الذكاء الاصطناعي على نتائـج الانتخابات؟ وماذا لو قرر الذكاء الاصطناعي فى المستقبل أنه لا يريد الي البشر بعد الان ويريد التخلص منا؟

ورغم عدالة التساؤلات، فإن “غيتس” أعلن فى مقال على موقعه الشخصي، أنها ليست المرة الأولى التى يرصد فيها ابتكارا رئيسيا حول تهديدات جديدة يجب السيطرة عليها.

وسواء كان الامر يتعلق بابتكار السيارات أو ظهور أجهزة الكمبيوتر الشخصية والإنترنت، فقد نجح الناس فى المرور عبر لحظات تحويلية أخرى، وعلى الرغم مـن المزيد مـن الاضطرابات، فقد أصبحوا افضل حالاً فى النهايه. وبعد مدة وجيزة مـن ظهور السيارات الأولى على الطريق، كان هناك أول حادث سيارة. لكننا لم نحظر السيارات – فقد اعتمدنا حدود السرعة، ومعايير السلامة، ومتطلبات الترخيص، وقوانين القيادة تحت تأثير الكحول، وقواعد الطريق الاخرى.

ويرى “غيتس”، أننا حالياً فى المرحله الأولى مـن تغيير عميق آخر، وهو “عصر الذكاء الاصطناعي”. والذي يشبه تلك الأوقات غير المؤكدة قبل حدود السرعة وأحزمة الأمان. “كَمَا يتغير الذكاء الاصطناعي بسرعة كبيرة لدرجة أنه ليس مـن الواضح بالضبط ما سيحدث بعد ذلك. نحن نواجه أسئلة كبيرة تثيرها الطريقة التى تعمل بها التكنولوجيا الحالية، والطرق التى يستخدمها الناس لسوء النية، والطرق التى سيغيرنا بها الذكاء الاصطناعي كمجتمع وكأفراد”.

وفي لحظة كهذه، مـن الطبيعي ان تشعر بعدم الاستقرار. لكن التَّارِيخُ يُظهر أنه مـن الممكن حل التحديات التى أحدثتها التقنيات الجديدة.

وكتب “غيتس” مقالا سابقا، حول كيف سيحدث الذكاء الاصطناعي ثورة فى حياتنا. ويساعد فى حل المشكلات – فى الصحة والتعليم وتغير المناخ وغير ذلك – التى كانـت تبدو مستعصية على الحل.

وقال: “شيء واحد واضح مـن كل ما تمت كتابته حتـى الان حول مخاطر الذكاء الاصطناعي – وكُتب المزيد – هو أنه لا أحد لديه كل الإجابات”. “شيء آخر واضح بالنسبة لي هو ان مستقبل الذكاء الاصطناعي ليس قاتماً كَمَا يعتقد البعض أو وردياً كَمَا يعتقد الآخرون. المخاطر حقيقية، لكني متفائل بإمكانية إدارتها”.

ويرى أنه قد يكون هناك حاجة الي تكييف القوانين القديمة واعتماد قوانين جديدة – تماماً كَمَا يجب ان تكون القوانين الحالية لمكافحة الاحتيال مخصصة لعالم الإنترنت.

مخاطر قريبة أكثر إلحاحاً

وكتب “غيتس”، ان هناك مخاطر حول الوصول للذكاء الاصطناعي الخارق، والذي قد يرسم أهدافه بشكل منفرد، وقد يتعارض بعضها مع اهداف البشرية، ولكن هذه الأسئلة قد لا يكون مـن المناسب الإجابة عليها الان، خاصةً ان عمليات التطوير قد تأخذ وقتاً أكثر مما نعتقد، لكن على جانب المخاطر الأكثر إلحاحاً، فقد يمكن ان يؤدي التزييف العميق والمعلومات الخاطئة الناتجة عَنْ الذكاء الاصطناعي الي تقويض الانتخابات والديمقراطية.

إذ إن فكرة إمكانية استخدام التكنولوجيا لنشر الأكاذيب ليست جديدة. حيـث كان الناس يفعلون ذلك بالكتب والمنشورات لعدة قرون. وأصبح الامر أسهل بكثير مع ظهور معالجات الكلمات وطابعات الليزر والبريد الإلكتروني والشبكات الاجتماعية.

وعلى نطاق أوسع، يمكن استخدام تقنية التزييف العميق الناتجة عَنْ الذكاء الاصطناعي لمحاولة ترجيح الانتخابات. بالطبع، لا يتطلب الامر تقنية متطورة لبث الشكوك حول الفائز الشرعي فى الانتخابات، ولكن الذكاء الاصطناعي سيجعل الامر أسهل.

وهناك بالفعل مقاطع فيديـو مزيفة ترصد لقطات ملفقة لسياسيين معروفين. تخيل أنه فى صباح يـوم الانتخابات الكبرى، انتشر مقطع فيديـو يظهر أحد المرشحين يسرق أحد البنوك. إنه مزيف، لكن الامر يستغرق عدة ساعات مـن منافذ الأخبار والحملة لإثبات ذلك. كم عَدَّدَ الأشخاص الذين سيشاهدونه ويغيرون أصواتهم فى اللحظة الاخيره؟ يمكن ان تقلب الموازين، على وجه الشأن فى انتخابات متقاربة.

وكتب غيتس: “لكن شيئين يجعلانني متفائلاً بحذر. أحدها ان الناس قادرون على تعلم ألا يأخذوا كل شيء فى ظاهره”. “الشيء الآخر، هو ان الذكاء الاصطناعي يمكن ان يساعد فى تحديد التزييف العميق وكذلك فى إنشائها”.

شن الهجمات الإلكترونية

اليـوم، عندما يريد المتسللون فى العثور على عيوب يمكن استغلالها فى البرامج، فإنهم يفعلون ذلك بالقوة الغاشمة – كتابة التعليمات البرمجية التى تقضي على نقاط الضعف المحتملة حتـى يكتشفوا طريقة للدخول. ويتضمن ذلك السير فى المزيد مـن الأزقة العمياء، مما يعني ان الامر يستغرق وقتاً والتحلي بالصبر.

ويجب على خبراء الأمن الذين يريدون مواجهه المتسللين ان يفعلوا الشيء نفسه. ويمثل كل برنامـج تصحيح تقوم بتثبيته على هاتفك أو جهاز الكمبيوتر المحمول الخاص بك عدة ساعات مـن البحث، جاء الى الأشخاص ذوي النوايا الحسنة والسيئة، على حد سواء.

لكن نماذج الذكاء الاصطناعي ستعمل على تسريع هذه العملية مـن اثناء مساعدة المتسللين على كتابة تعليمات برمجية أكثر فعالية. وسيتمكنون أيضاً مـن استخدام البيانات العامة حول الأفراد، مثل مكان عملهم ومن هم أصدقاؤهم، لتطوير هجمات تصيد أكثر تقدماً مـن تلك التى نراها اليـوم.

والخبر السار وفقاً لـ “غيتس”، هو أنه يمكن استخدام الذكاء الاصطناعي للأغراض الجيدة وكذلك للأغراض السيئة. إذ ستحتاج فرق الأمن الحكومية والقطاع الخاص الي امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل ان يتمكن المجرمون مـن الاستفادة منها.

وقال غيتس، لهذا السبب أيضاً لا يجب ان نحاول منع الناس مؤقتاً مـن تنفيذ التطورات الجديدة فى الذكاء الاصطناعي، كَمَا اقترح البعض. لن يتوقف مجرمو الإنترنت عَنْ صنع أدوات جديدة.

هناك خطر ذو صلة على المستوى العالمي: سباق تسلح للذكاء الاصطناعي يمكن استخدامه لتصميم وشن هجمات إلكترونية امام دول أخرى. تريد كل حكومة ان تمتلك أقوى التقنيات حتـى تتمكن مـن ردع الهجمات مـن خصومها. وقد يؤدي هذا الحافز الي عدم السماح لأي شخص بالمضي قدماً الي سباق لإنشاء أسلحة إلكترونية خطيرة بشكل متزايد. سيكون الجميع أسوأ حالاً.

وعلى الرغم مـن ان الفكرة مخيفة، لكن “غيتس” يرى ان لدينا تاريخا يرشدنا. فعلى الرغم مـن ان نظام حظر انتشار الأسلحة النووية فى العالم له عيوبه، فإنه منع الحرب النووية الشاملة التى كان “جيله” يخاف منها. ويجب على الحكومات التفكير فى إنشاء هيئة عالمية للذكاء الاصطناعي مماثلة للوكالة الدولية للطاقة الذرية.

سلب الوظائف

وفي السنوات القليلة القادمة، سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل هو مساعدة الأشخاص على أداء وظائفهم بشكل أكثر كفاءة.

لكن مـن الصحيح ان بعض العمال سيحتاجون الي الدعـم وإعادة التدريب، وهذا دور الحكومات والشركات، ويجب إدارته جيداً حتـى لا يتخلف العمال عَنْ الركب – ولتجنب هذا النوع مـن الاضطراب فى حياة الناس الذى حدث اثناء تراجع وظائف التصنيع فى الولايات المتحدة.

ضع فى اعتبارك أيضاً ان هذه ليست المرة الأولى التى تتسبب فيها تقنية جديدة فى حدوث تحول كثير فى سوق العمل. إذ لا يعتقد “غيتس” ان تأثير الذكاء الاصطناعي سيكون دراماتيكياً مثل الثورة الصناعية، لكنه بالتأكيد سيكون بحجم إدخال الكمبيوتر الشخصي.

هلاوس الذكاء الاصطناعي

وعادة ما اعلن الهلوسة – المصطلح الذى يطلق على الذكاء الاصطناعي بثقة ادعاءً غير صحيح – لأن الجهـاز لا يفهم ضوء طلبك. فإذا طلبت مـن الذكاء الاصطناعي كتابة قصة قصيرة حول قضاء إجازة على القمـر، قد يمنحك إجابة خيالية للغاية. لكن اطلب منه مساعدتك فى التخطيط لرحلة الي تنزانيا، وقد يسعي إرسالك الي فندق غير موجود.

بالإضافة الي خطر آخر، وهو أنه يعكس أو حتـى يفاقم التحيزات القائمة امام أشخاص مـن هويات وأعراق معينة، وما الي ذلك.

ولفهم سبب حدوث الهلوسة والتحيزات، مـن المهم معرفة كيفية عمل نماذج الذكاء الاصطناعي الأكثر شيوعاً اليـوم. إنها فى الأساس إصدارات معقدة للغاية مـن الشفرة التى تسمح لتطبيق البريد الإلكتروني الخاص بك بالتنبؤ بالكلمة التالية التى ستكتبها: فهي تفحص كميات هائلة مـن النص – تقريباً كل شيء متاح عبر الإنترنت، فى بعض الحالات – ويحللها للعثور على أنماط فى لغة بشرية.

وضرب “غيتس” مثالاً: “إذا كتبت للذكاء الاصطناعي أنه ارتكب خطأ، فقد يقول آسف، لقد أخطأت فى كتابة ذلك”. لكن هذه هلوسة – إذ لم تكتب له اى شيء قبل اتهامه بالخطأ. ولكن هذه البرمجيات ترد بإجابات تم فحص نصوص كافية لتعرف ان “آسف، لقد أخطأت فى كتابة ذلك” هى جملة يكتبها الناس غالباً بعد ان يصححها شخص ما.

وبالمثل، ترث نماذج الذكاء الاصطناعي اى تحيزات يتم دمجها فى النص الذى تم تدريبهم عليه. إذا قرأ المرء كثيراً عَنْ الأطباء على سبيل المثال، وكان النص يذكر فى الغالب عَنْ الأطباء الذكور، فإن إجاباته ستفترض ان معظم الأطباء مـن الرجال.

على الرغم مـن ان بعض الباحثين يعتقدون ان الهلوسة مشكلة متأصلة، فإنني لا أتفق معها. أنا متفائل بأنه، بمرور الوقت، يمكن تعليم نماذج الذكاء الاصطناعي التمييز بين الحقيقة والخيال.

أخيراً، يجب على كل شخص يستخدم الذكاء الاصطناعي ان يكون على دراية بمشكلة التحيز وأن يصبح مستخدماً مطلعاً. قد يكون المقال الذى تطلب مـن الذكاء الاصطناعي صياغته مليئاً بالأحكام المسبقة كَمَا هو الحال مع الأخطاء الواقعية. وستحتاج الي التحقق مـن انحيازات الذكاء الاصطناعي لديك وكذلك تحيزاتك.

ماذا بعد؟

اعتقد ان هناك أسباباً أكثر مـن عدم التفاؤل بأننا نستطيع ادارة مخاطر الذكاء الاصطناعي مع تعظيم فوائدها. لكننا بحاجة الي التحرك بسرعة.

تحتاج الحكومات الي بناء الخبرة فى مجال الذكاء الاصطناعي، حتـى تتمكن مـن وضع قوانين ولوائح مستنيرة تستجيب لهذه التكنولوجيا الجديدة. كَمَا سيحتاجون الي التعامل مع البيانات المضللة والتزييف العميق والتهديدات الأمنية والتغييرات فى سوق العمل والتأثير على التعليم.

وفي القطاع الخاص، تحتاج شركات الذكاء الاصطناعي الي متابعة عملها بأمان ومسؤولية. يتضمن ذلك حماية خصوصية الأشخاص، والتأكد مـن ان نماذج الذكاء الاصطناعي الخاصة بهم تعكس القيم الإنسانية الأساسية، وتقليل التحيز، ونشر الفوائد لأكبر عَدَّدَ ممكن مـن الناس، ومنع استخدام التكنولوجيا جاء الى المجرمين أو الإرهابيين. كَمَا ستحتاج الشركات فى العديد مـن قطاعات الاقتصاد الي مساعدة موظفيها على الانتقال الي مكان عمل يركز على الذكاء الاصطناعي حتـى لا يتخلف أحد عَنْ الركب. ويجب ان يعرف العملاء دائماً متى يتفاعلون مع ذكاء اصطناعي وليس مع إنسان.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى