تكنولوجيا

علماء: يدخل مجالات لا يمكن السيطرة عليها مع دخول التقنية في سباق التسلح

• التسابق المحموم على الذكاء الاصطناعي يثير مخاوف صحية واجتماعية وأمنية

• هينتون: التقنية الجديدة ستتفوق على القدرات البشرية قريباً

(قنا) – تتصاعد المخاوف من الحدود اللامتناهية التي يصعب إيقافها لقدرات الذكاء الصناعي، رغم أن سباق تطويره لم يمض عليه إلا فترة وجيزة، فالمدى الذي يمكن أن تبلغه الشركات المتخصصة في هذا المجال بات يشكل هاجسا وسط تحذيرات من عواقب الاندفاع المحموم على امتلاك أدواته، بشكل قد يزيح ضوابط العقل البشري من خلال التحكم في الأشخاص المسؤولين عن استخدامه والتلاعب بقراراتهم.

وفي ظل التنافس بين شركات عالمية لاستقطاب ملايين المطورين المستخدمين الباحثين عن ميزة الحصول على ملخصات تم إنشاؤها بواسطة الذكاء الاصطناعي، أطلقت شركة جوجل Google حديثا، محرك بحث مدعوم بالذكاء الاصطناعي، بنماذج لغوية جديدة قوية تختص بأعمال البحث على الإنترنت، لمواجهة تقدم برنامج OpenAI’s ChatGPT المدعوم من شركة مايكروسوفت الذي أطلق قبل ستة أشهر.

وكان إطلاق ChatGPT من قبل متصفح بنغ Bing لشركة مايكروسوفت قبل عدة أشهر قد رفع أسهمها، وبات يهدد هيمنة متصفح جوجل Google على محركات البحث طيلة عقد من الزمن.

وتقول “جوجل” إن محركها الجديد المدعوم من الذكاء الاصطناعي الذي تم تجديده يوفر خيار متابعة استعلام البحث الأصلي بأسلوب محادثة، دون الحاجة إلى تكرار السياق أو التفاصيل المقدمة بالفعل، مشيرة إلى أن الإجابات التي يحركها الذكاء الاصطناعي ستشمل أيضا روابط لمصادر الويب التي تشتق منها الإجابات، في محاولة منها للتعامل مع ما يسمى بـ”الهلوسة” أو المعلومات “الملفقة”.

وترى مجموعة من العلماء أن هذا السباق الذي انطلق قبل أعوام قليلة قد يدخل مجالات لا يمكن السيطرة عليها مع دخول تقنية الذكاء الاصطناعي في سباق التسلح، ولعل ذلك يفسر توقيع العديد من الباحثين لرسالة مفتوحة نهاية عام 2022، تدعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لمدة ستة أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي أقوى من GPT-4.

وتتسق هذه التحذيرات مع موقف جيفري هينتون الرجل الذي ينظر إليه على نطاق واسع بأنه الأب الروحي للذكاء الاصطناعي (AI) والذي استقال من وظيفته في “جوجل” قبل بضعة أيام، محذرا من المخاطر المتزايدة من التطورات الجارية في هذا المجال.

وقال هينتون البالغ من العمر 75 عاما إنه يأسف الآن لعمله في هذا الميدان، مؤكدا أن بعض جوانب برامج “تشات بوت” (Chatbot) مخيفة للغاية، فهو يعتقد أنها ستتفوق على القدرات البشرية قريبا.

على الصعيد ذاته، حذر ستيف وزنياك الشريك المؤسس لشركة “أبل” من أن الذكاء الاصطناعي (AI) قد يجعل مهمة اكتشاف عمليات الاحتيال والمعلومات المضللة أصعب من أي وقت مضى، مبديا خشيته من أن يتم تسخير التكنولوجيا من قبل من وصفها بالجهات السيئة.

وكان وزنياك قد نشر في مارس الماضي بالاشتراك مع إيلون ماسك، مالك شركة سبيس أكس ومنصة تويتر بيانا، دعا فيه الرجلان إلى ضرورة إيقاف عملية تطوير أقوى نماذج الذكاء الاصطناعي.

ومن هنا بدأت صيحات التحذير تتعالى بضرورة التنظيم الفعال لتطوير واستخدام الذكاء الاصطناعي لتجنب الضرر، وتحديد مسارات تطوير الذكاء الاصطناعي العام الذي يتحسن ذاتيا، فقد اشتركت أكثر من ستين دولة، من خلال نص وزعته الأمم المتحدة، في إبداء مخاوفها المتعلقة بمسألة الانخراط البشري في الذكاء الاصطناعي، وانعدام الوضوح على صعيد المسؤولية والعواقب غير المقصودة المحتملة.

وتتوقع مؤسسة البيانات الدولية أن ينمو مجال البيانات العالمي من 33 غيغابايت عام 2018 إلى 175 غيغابايت بحلول عام 2025، حيث تتوفر كميات هائلة من البيانات المنظمة وغير المهيكلة للشركات لتعدينها ومعالجتها، ومعها ستصبح الخصوصية الشخصية أكثر صعوبة في الحماية في ظل انتشار الذكاء الاصطناعي، خصوصا عند حدوث تسرب للبيانات أو حدوث انتهاكات، إذ يمكن أن تلحق التداعيات الناتجة ضررا كبيرا بسمعة الشركة وتمثل انتهاكات قانونية محتملة، مع قيام العديد من الهيئات التشريعية الآن بتمرير لوائح تقيد كيفية معالجة البيانات الشخصية.

ولا يمكن إغفال الفوائد العظمى التي لا يختلف عليها اثنان في أهمية الذكاء الاصطناعي للبشرية، وتطوير سبل الحياة وتسهيلها، وتحقيق اكتشافات عظيمة في مجال تعلم الآلة والتعلم العميق، فمن حيث الصناعة خفض الذكاء الاصطناعي الكلفة التشغيلية، وساهم بزيادة كفاءة العمل، وتحسين المنتجات، وأدى لتقليل الأخطاء البشرية.

كما بدأ في السنوات الماضية استخدام تقنيات الذكاء الاصطناعي للتنبؤ بالطقس، وأصبح هذا المجال ناجحا، وشجع على التعاون بين علماء الطقس وعلماء البيانات للمساعدة على مكافحة الكوارث المناخية باستخدام الخوارزميات وبيانات الأقمار الصناعية، وقد أثبت الذكاء الاصطناعي فعاليته في تحقيق استجابات ذكية للكوارث، وتوفير بيانات في الوقت الفعلي عن الكوارث والأحداث الجوية.

وفي الأمن السيبراني، أصبح مجرمو الإنترنت يعانون أكثر في اختراق أنظمة الدول وشن هجماتهم التحسسية، فوفقا لتقرير من شركة IBM، ارتفع متوسط التكلفة الإجمالية لاختراق البيانات من 3.86 مليون دولار إلى 4.24 مليون دولار عام 2021، وهذه الصعوبة والكلفة العالية لعمليات الاختراق لم تتحقق إلا بفضل الذكاء الاصطناعي (AI) وقدرات التطوير التي أعاقت التقدم في وسائل الهجمات الإلكترونية.

لكن ثمة مخاوف من عواقب انفلات الذكاء الصناعي، تتركز في ثلاثة محاور، الأول هو البطالة الجماعية، في حالة قيام الأنظمة القائمة على الذكاء الاصطناعي بإزاحة أعداد كبيرة من العمال عن وظائفهم، وما يترتب على ذلك من بطالة وآثار صحية وعقلية لهم، والثاني هو احتمالية أن يضر الذكاء الصناعي بصحة الملايين، ويشكل تهديدا وجوديا للبشرية من خلال المحددات الاجتماعية للصحة، ونشر معلومات غير دقيقة، وتطوير الأسلحة المستقلة الفتاكة، والثالث يتعلق بقدرة خوارزميات الذكاء الاصطناعي على تشويه أو تحريف الواقع باستخدام التزييف العميق، واختلاق مواقف غير حقيقية، بما ينسحب على تقويض الثقة بالأشخاص، وفتح الباب أمام الانقسامات الاجتماعية والصراعات.

وإذ يمتلك الذكاء الاصطناعي القدرة على إحداث ثورة في الرعاية الصحية من خلال تحسين تشخيص الأمراض، وإيجاد طرق أفضل لعلاج المرضى، وتقديم الرعاية إلى المزيد من الأشخاص، لكن الذكاء الاصطناعي لديه أيضا القدرة على إحداث آثار صحية سلبية، بحسب ما تقوله مجلة BMJ Global Health المتخصصة بالصحة العامة.

ويقول أطباء في دراسة نشرتها المجلة: تشمل المخاطر المرتبطة بالطب والرعاية الصحية احتمال أن تسبب أخطاء الذكاء الاصطناعي في إلحاق الضرر بالمرضى، وقضايا تتعلق بخصوصية البيانات وأمنها، واستخدام الذكاء الاصطناعي بطرق من شأنها أن تؤدي إلى تفاقم عدم المساواة الاجتماعية والصحية، فقضية مثل البطالة مرتبطة بقوة بالنتائج الصحية والسلوكيات السلبية، ناهيك عن سياسات وقرارات اقتصادية يترقبها العالم، يكون فيها العمل غير متوفر أو غير ضروري، وكيف سينسحب ذلك نفسيا واجتماعيا على الأفراد المتضررين من تلك السياسات.

وفي رسالة مفتوحة إلى وزيرة الدولة للعلوم والابتكار والتكنولوجيا في المملكة المتحدة، دعا ائتلاف من خبراء الصحة ومدققي الحقائق المستقلين والجمعيات الخيرية الطبية إلى تعديل قانون الأمان المرتقب للحكومة على الإنترنت، لاتخاذ إجراءات ضد المعلومات الصحية الخاطئة، بتوجيه شركات الإنترنت حول كيفية تحديد المعلومات الخاطئة الصحية الضارة التي تظهر على منصاتهم، فضلا عن الأساليب المتسقة في التعامل معها، فهذه المحددات ستعطي المستخدمين مزيدا من الحماية من الأذى، وتحسن بيئة المعلومات والثقة في المؤسسات العامة، وأن تكون تلك التوجيهات بتشريع التزامات واجبة قانونيا.

على مستوى المنظمات الدولية، حذر فولكر تورك المفوض السامي لحقوق الإنسان في الأمم المتحدة في بيان نشره موقع الأمم المتحدة في 18 فبراير الماضي، من أن التقدم الذي تم إحرازه مؤخرا في مجال الذكاء الاصطناعي يمثل خطرا بالغا على حقوق الإنسان، داعيا إلى وضع محاذير فعالة، وأعرب عن قلقه الكبير إزاء قدرة التقدم الأخير في مجال الذكاء الاصطناعي على إلحاق الضرر في نواح عديدة.

زر الذهاب إلى الأعلى