تكنولوجيا

كيف يهدد الذكاء الاصطناعي الأمن البيولوجي وما طرق الوقاية المناسبة؟ سام تكنولوجيا_

لم يكن استخدام الذكاء الاصطناعي فى العديد مـن المجالات كمجال الرعاية الصحية والتصنيع وصناعة الأدوية وغير ذلك خاليًا تمامًا مـن المخاطر، فهناك دائمًا قلق بشأن الخصوصية وقلة جودة البيانات، والمخرجات غير الدقيقه وإساءة الاستخدام. لذلك يتطلب استخدام الذكاء الاصطناعي فى اى مجال مراعاة إيجابياته وسلبياته والتركيز فى المخاطر المحتملة لاستخدامه وكيفية التقليل منها أو منعها.

وفي مجال الأمن البيولوجي هناك قلق حول المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي لتطوير مواد بيولوجية خطيرة، والتسبب فى ضرر واسع النطاق. فقد أشار تقرير لوزارة الأمن الداخلي الأمريكية (DHS) الي الإمكانات ذات الحدين للذكاء الاصطناعي لتعزيز الأمن البيولوجي للولايات المتحدة وتعريضه للخطر.

كيف يمكن ان يُعرّض الذكاء الاصطناعي الأمن البيولوجي للخطر؟

فى شهر أبريل سلّمت وزارة الأمن الداخلي الأمريكية الي البيت الأبيض تقريرًا حول تقليل المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي لتطوير أو إنتاج مواد كيميائية وبيولوجية وإشعاعية ونووية (CBRN).

صدر المقال استجابةً للأمر التنفيذي للرئيس بايدن بشأن الذكاء الاصطناعي الذى وقّعه العام الماضي، والذي طلب خلاله تقييمًا لخطر استخدام الذكاء الاصطناعي لتطوير أسلحة بيولوجية.

ففي تاريخ 30 مـن أكتوبر 2023، وقّع الرئيس بايدن على أمر تنفيذي بشأن السلامة والأمن والتطوير الجدير بالثقة لكيفية استخدام الذكاء الاصطناعي. وكان الهدف الاساسى مـن هذا الامر ضمان ان تقود أمريكا الطريق فى ادارة مخاطر الذكاء الاصطناعي وإنشاء اطار حوكمة لتطوير الذكاء الاصطناعي واستخدامه بنحو آمن ومسؤول.

أدت وزارة الأمن الداخلي (DHS) دورًا رئيسيًا فى تنفيذ هذا الامر الذى ركز جزء أساسي منه فى الحاجة الي فهم وتخفيف المخاطر المرتبطة بإساءة استخدام الذكاء الاصطناعي للمساعدة فى تطوير أو استخدام المواد الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) مع الانتباه بنحو حصري فى الأسلحة البيولوجية.

دَاخِلٌ وزارة الأمن الداخلي، أصدر مكتب مكافحة أسلحة الدمار الشامل (CWMD) تقرير AI CBRN الذى يقيّم إمكانية إساءة استخدام الذكاء الاصطناعي لتطوير أو إنتاج تهديدات كيميائية وبيولوجية وإشعاعية ونووية، مع النظر أيضًا فى فوائد وطرق تطبيق الذكاء الاصطناعي لمواجهة هذه التهديدات.

ووفقًا للتقرير الذى أصدرته وزارة الأمن الداخلي، يؤثر الذكاء الاصطناعي بالفعل فى البحث العلمي، ويمكن ان يكون له آثار إيجابية وسلبية اعتمادًا على نية المستخدمين وجودة البيانات.

إذ يمكن لنماذج الذكاء الاصطناعي المتاحة فى الوقت الحالي ان تعزز قدرة العلماء على إنتاج وتطوير مواد كيميائية وبيولوجية جديدة، لكن بعض أنظمة الذكاء الاصطناعي الخاصة بالمجالات الكيميائية والبيولوجية تعاني صعود نسبه الفشل ومخاوف بشأن صحة البيانات.

لذلك، يركز المقال فى اهميه تطوير أنظمة الذكاء الاصطناعي وتحسين دقتها، ويحذر مـن ان توفر الذكاء الاصطناعي على نطاق واسع يقلل الحواجز المانعة لتطوير مواد بيولوجية وكيميائية جديدة؛ مما يزيد مـن خطر قيام بعض الجهات الخطيرة بإجراء هجمات بيولوجية تهدد الأمن البيولوجي.

إذ يمكن استخدام النماذج اللغوية الكبيرة (LLMs) لإنشاء تهديدات بيولوجية بعدة طرق. على سبيل المثال: يمكن استخدامها لتطوير فيروسات أو بكتيريا جديدة يمكن ان تسبب ضررًا للبشر أو الحيوانات. 

ويذكر المقال ان الوتيرة الثورية للتغيير فى قطاعات التكنولوجيا الحيوية والتصنيع الحيوي والذكاء الاصطناعي تزيد مـن التحديات التنظيمية الحالية، وقد وضحت وزارة الأمن الداخلي الي ان الضوبط الحالية تفشل فى حساب المخاطر التى تشكلها تسلسلات الأحماض النووية الضارة المحتمل إنشاؤها بمساعدة الذكاء الاصطناعي. ويمكن ان تسمح هذه الأنواع مـن الفجوات فى الضوابط الحالية لبعض الجهات بإساءة استخدام الذكاء الاصطناعي لتطوير عوامل بيولوجية خطيرة، والتسبب فى ضرر واسع النطاق.

مـن جانب اخر، يشير المقال الي ان إدماج الذكاء الاصطناعي فى طرق وأساليب الوقاية مـن التهديدات الكيميائية والحيوية وكشفها يمكن ان يحقق فوائد عملية، لكنه يُشير أيضًا الي ان القيود التنظيمية الحالية تعيق قدرة الحكومة على الإشراف بنحو صحيح على البحث والتطوير والتنفيذ فى مجال استخدام الذكاء الاصطناعي لتعزيز الأمن امام المخاطر الحيوية. وهناك حاجة الي المشاركة مع الحكومات والمنظمات الدولية وشركات الصناعة لتطوير اسس وأطر لإدارة مخاطر الذكاء الاصطناعي، وإطلاق العنان لإمكانات الذكاء الاصطناعي مـن اجل المصلحة العامة، ومواجهة التحديات المشتركة المرتبطة بتطوير الذكاء الاصطناعي وانتشاره بنحو واسع.

ما التوصيات التى قدمتها وزارة الأمن الداخلي لضمان الحفاظ على الأمن البيولوجي؟

ركزت وزارة الأمن الداخلي فى الحاجة الي التعاون الواسع بين القطاعات الحكومية والخاصة والأوساط الأكاديمية لضمان بقاء حواجز الحماية قوية حتـى مع تطور الذكاء الاصطناعي. ويقدم المقال عدة توصيات لضمان استمرار الأمن البيولوجي، وأبرزها:

1- مشاركة الخبرات:

مـن الضروري استمرار قطاع الصناعة والحكومة والأوساط الأكاديمية فى التعاون وتبادل المعرفة ومشاركة الخبرات مـن اجل زيادة معايير السلامة والأمن المرتبطة بإنتاج وتطوير المواد الكيميائية والبيولوجية والإشعاعية والنووية باستخدام نماذج الذكاء الاصطناعي، وتحديد افضل الممارسات وإستراتيجيات التخفيف مـن المخاطر المرتبطة بتطوير هذه المواد.

2- تعزيز حماية البيانات الكيميائية والبيولوجية الحساسة:

ينبغي للمطورين استخدام معايير مشددة لإمكانية الوصول الي الأدوات والخدمات المتخصصة الشديدة الخطورة، مثل: أدوات الذكاء الاصطناعي الخاصة بإنشاء أو تطوير المواد البيولوجية أو المواد الكيميائية. 

3- التدريب والتعليم:

يجب على المطورين توفير التدريب اللازم للتوعية بالتهديدات المرتبطة بإنتاج المواد البيولوجية والكيميائية والإشعاعية والنووية لمقيّمي النماذج أو الفرق التى تختبر نقاط الضعف فى الذكاء الاصطناعي لتصحيح الأمن الذى ينطوي عليه تطوير النموذج. ويمكن للحكومة والحلفاء الدوليين وخبراء الأمن تقديم الخبرة لدعم مثل هذا التدريب.

الخاتمة:

يمكن ان يُشكّل الذكاء الاصطناعي تهديدًا للأمن البيولوجي عند استخدام الجهات الخطيرة للنماذج اللغوية الكبيرة لتطوير مواد بيولوجية يمكن ان تهدد صحة البشر والحيوانات، ومع ذلك يمكن للتعاون بين الحكومات وشركات التكنولوجيا المطوّرة لأنظمة الذكاء الاصطناعي المساعدة فى استخدام الذكاء الاصطناعي للحماية مـن التهديدات التى قد تمس الأمن البيولوجي عَنْ طريق تعزيز حماية البيانات الكيميائية والبيولوجية الحساسة، وتوفير التدريب اللازم للجهات المختصة بتقييم نماذج الذكاء الاصطناعي لتتمكن مـن تحديد نقاط الضعف فى تلك النماذج.



مقالات ذات صلة

زر الذهاب إلى الأعلى