الذكاء الاصطناعي وغباء البشر : يظن الناس أن “الغباء” سمة بشرية، لكن أنظمة الذكاء الاصطناعي ليست معصومة من الخطأ، بل على الأرجح أنها رغم التطوير الذي شهدته، لم ترتق بعد إلى مستوى ذكاء العقل البشري الذي يختلف كثيرا عن طريقة عمل نماذج التعلم الآلي العميق الحالي، ويبدو أن الارتقاء إلى مستوى الذكاء البشري سيتطلب أمدا غير معروف.
توقّع الكثير من كتاب الخيال العلمي بأن يسلب الإنسان الآلي من البشر قدراتهم العقلية وخبراتهم الحياتية والعاطفية، ليتربع بذلك على عرش الكون. وتجسّد جزء من هذه الرؤى في الواقع.
ويرجّح راي كيرزويل، مدير قسم الهندسة بشركة “غوغل” الأميركية، بأن أجهزة الكمبيوتر ستكون أكثر ذكاء من أي إنسان بحلول عام 2029.
وأصبحت برامج الذكاء الاصطناعي وأجهزة الروبوت تتمتع بقدرات عالية ومهارات كبيرة، ولاقت الترحيب في البيوت والمؤسسات والأماكن العامة والحياة الاجتماعية للناس، غير أن المتخوفين منها يعتقدون أنها يمكن أن تصاب بما عبّر عنه المحرر التقني في صحيفة نيويورك تايمز بـ”الغباء الاصطناعي”، فترتكب أخطاء فادحة، ولذلك لا بد من طريقة ما لتجاوز هذا المأزق الذي قد يكتب أسوأ السيناريوهات لنهاية الكائن البشري.
وحذرت “ألفابت”، وهي الشركة الأم لـ”غوغل”، المستثمرين من المشكلات الأخلاقية والقانونية التي تسببها تقنيات الذكاء الاصطناعي لأنشطة الشركة. وقالت إن منتجات وخدمات جديدة تعتمد على الذكاء الاصطناعي والتعلم الآلي يمكن أن تثير أو تعمّق بعض التحديات الأخلاقية والتقنية والقانونية.
وكانت شركة مايكروسوفت قد نبهت إلى المخاطر نفسها التي حذرت منها شركة “ألفابت”، محذرة من الانحرافات التي تتعرض لها تكنولوجيا الذكاء الاصطناعي.
ولعبت مايكروسوفت و”ألفابت” دورا بارزا في إثارة النقاش والمخاوف وتشجيع الأبحاث حول التحديات الأخلاقية التي يطرحها الذكاء الاصطناعي بعد أن واجهتا هذه التحديات بشكل مباشر في السنوات الأخيرة.
ويرى البعض من الخبراء أن مخاطر الذكاء الاصطناعي يمكن أن تظهر بشكل أوضح في الآلات المسؤولة عن تنفيذ مهام محددة بشكل متواصل.
ومثل هذا الأمر أشار إليه سابقا ماكس تيغمارك، أستاذ الفيزياء في “معهد ماساتشوستس التقني” ورئيس “معهد مستقبل الحياة” المنظمة المعنية بتوفير التوعية والدعم اللازمين لخفض المخاطر التي تهدد البشرية وتحديدا الذكاء الاصطناعي.
وتم تأسيس “معهد مستقبل الحياة” من قبل بعض العلماء والمستثمرين، منهم المخترع الأميركي إيلون ماسك وعالم الفيزياء البريطاني الراحل ستيفن هوكينغ.
ماذا لو جعلنا الذكاء الاصطناعي أغبياء؟
أصبح مصطلح “الاصطناعي” مرتبطاً بالذكاء والغباء على حد سواء، فهل هناك غباء تقني مصطنع حقاً؟ وهل يمكن لطرق تكنولوجيا التذاكي المصطنعة أن تجعل البشر أغبياء؟
الحقيقة أننا اليوم في مواجهة مجال سريع النمو تجاه تطوير خوارزميات وأنظمة تميل باستمرار إلى أداء المهام التي تتطلب عادة ذكاءً بشرياً، بل يتجاوز القدرات البشرية ليعالج كميات هائلة من البيانات ويتعرف إلى الأنماط، الأمر الذي أدى إلى اعتماده في مجالات وصناعات عدة.
ومع تواصل تجريد الإنسان من المسؤوليات وإعطائه الآلة الجزء الأكبر منها، يبدو وكأننا على الطريق لإعطاء الذكاء الاصطناعي الصلاحيات كاملة ليقود حياتنا بالكامل وبكل ما فيها، كأن يقود مثلاً سياراتنا وطائراتنا وأن يستثمر أموالنا، فهل بدأ البشر يسلمون تدريجاً بكون الذكاء الاصطناعي أكثر ذكاء منهم، وهل سيسلمون عقولهم له؟ وهل الذكاء الاصطناعي ذكي بما يكفي ليتولى هذا الدور؟
ذكاء بالغ الغباء
عنونت صحيفة “وول ستريت” الأميركية مقالاً نشرته عام 2017 “من دون البشر الذكاء الاصطناعي لا يزال بالغ الغباء”، لكن هل ما زالت عند قولها هذا بعد التطورات التي شهدها العالم منذ إعلان توفير تقنيات الذكاء الاصطناعي التوليدي للعامة، وبعد أن تبرأ منه عرابه وحذر من مخاطره على الإنسانية، وذهب أكثر المنادين بدعم العلم والتكنولوجيا إلى أنه سيدمر الحضارة البشرية ويسبب ارتفاعاً في معدلات البطالة، إضافة إلى الوصول إلى نقطة عدم التمييز بين الحقيقي والمزيف، ومخاوف صدرت عن مستثمرين وداعمين حقيقيين لقطاع التكنولوجيا، يدعون فيها إلى وضع معايير لتنظيم استخدامه حتى لا يخرج عن السيطرة.
اختبار “تورينغ”
في عام 1950 اقترح عالم الرياضيات والمنطق الإنجليزي آلان تورينغ في ورقة بحثية حول الذكاء الاصطناعي بعنوان (Computing Machinery and Intelligence) أثناء عمله في جامعة مانشستر، اختباراً للذكاء سمي بـ “اختبار تورينغ” وهو عبارة عن اختبار لقدرة الآلة على إظهار سلوك ذكي لا يمكن تمييزه عن سلوك الإنسان، أشبه بلعبة تقليد أبطالها ثلاثة أطراف.
الأول حاسوب يعتمد على الذكاء الاصطناعي مصمم لتوليد استجابات شبيهة بالبشر والثاني مشارك بشري ومعهما محقق أو مقيم مهمته تمييز الطرف البشري من خلال مراجعة الإجابات النصية، علماً أنه على دراية بأن أحد الشريكين في المحادثة عبارة عن آلة، وفي حال لم يتمكن المقيم للتجربة من تمييز الآلة عن الإنسان فإنها تجتاز الاختبار، أي المطلوب منها أن تحاكي السلوكيات البشرية بغض النظر عن كونها ذكية أم لا، فبعض السلوكيات الذكية غير إنسانية، أي يتوجب على الآلة في حال كانت تؤدي مهارة ما بطريقة أكثر ذكاءً من الإنسان، مثل حل عمليات حسابية معقدة جداً، أن تتجنب “عن عمد” الظهور بمظهر فائق الذكاء.
ومن خلال هذا الاختبار أثار تورينغ فكرة أن الآلات لا يمكنها إرتكاب أخطاء وأن الدقة العالية للحاسب ستجعل من السهل تمييزه عن العنصر البشري، وخرج بملاحظة أنه بدلاً من ذلك يجب تعمد إدخال أخطاء في استجابات الكمبيوتر، ليبدو غبياً بعض الشي “غباء اصطناعي”، وأصبح هنا المفهوم مهماً في فلسفة الذكاء الاصطناعي .
الغباء الاصطناعي
يستخدم مصطلح “الغباء الاصطناعي” Artificial stupidity كمعنى مضاد لمفهوم الذكاء الاصطناعي، ويستخدم في مجال علوم الكمبيوتر للإشارة إلى تقنية إضعاف برامج الحاسوب من أجل تعمد إدخال أخطاء في ردود أفعالهم، واشتهر بتطبيقين رئيسين، إذ يمكن أن ترتكب خوارزميات التعلم الآلي أخطاء، تصنف على أنها غبية، أثناء التعلم من البيانات، أو يتم إخماد الذكاء الاصطناعي لجعله يرتكب الأخطاء ليبدو أكثر إنسانية، كتوليد أخطاء متعمدة في روبوتات المحادثة التي تحاول اجتياز اختبار “تورينغ” أو بغرض خداع البشر ودفعهم للاعتقاد بأنهم أمام بشر مثلهم، كما يعد تطبيق التغابي دليلاً على نجاح التصميم في مجال ألعاب الكمبيوتر، إذ يكون الهدف دائماً الوصول إلى نقطة توازن بين ذكاء الحاسوب والقدرات البشرية لوصول اللاعب إلى الفوز في اللعبة، أي أن لا يكون حل اللعبة مستحيلاً، من خلال ضبط دقيق لمستوى “الغباء الاصطناعي”.
ذكاء مكمل
من جهة أخرى، يجادل العلماء أنه على رغم كل الضجيج القائم حول الذكاء الاصطناعي، إلا أنه ما زال مرتبطاً بأشكال ضيقة وضعيفة من الذكاء، والتي تقتصر على أداء مهام محددة ضيقة ضمن حدود معينة، إذ وعلى رغم القدرات المذهلة للذكاء الاصطناعي، من الضروري إدراك أنه لا يزال يعاني من قيود عدة تحده، بالتالي لا يجب أن ننظر إليه على أنه الأكثر فطنة، فالحقيقة أنه مكمل، بمعنى أن للبشر حدوداً يقفز فوقها الذكاء الاصطناعي، وللذكاء قيوداً يبرع فيه البشر، أي لكل منهما نقاط قوة وضعف.
المثير هنا أن نقاط ضعف أحدهما قوة لدى الآخر، ومن هنا يمكن للباحثين من خلال المزج بينهما تحقيق فهم أعمق للمشكلات المعقدة واتخاذ قرارات على أرضية أوسع وأكثر اطلاعاً وتحقيق نتائج ملحوظة في مساعيهم العلمية، إذ يمكن لأنظمة الذكاء الاصطناعي أن تعوض عن قيود الباحثين البشريين، فمثلاً عندما يتعلق الأمر بمعالجة البيانات، فإن أجهزة الكمبيوتر وأنظمة الذكاء الاصطناعي تتفوق على البشر من حيث كل من السرعة والدقة، بينما بإمكان الفضول البشري أن يقود تطوير الذكاء الاصطناعي في اتجاه مؤثر ذي معنى من خلال توفير السياق والتوجيه، بالتالي يضمن استخدامه الفعال والهادف، الأمر الذي يسمح للباحثين البشر بتركيز وقتهم واهتمامهم على مهام أخرى، مثل إنشاء فرضيات وفلسفات وتطوير نظريات جديدة.
نقل النبضات
ثمة مثال بسيط أظهر فشل الذكاء الاصطناعي في التمييز بين الصور المختلفة، وهو ما لا يمكن للعين البشرية أن تخطئه. ففي الوقت الذي يسهل فيه على الإنسان تحديد الاختلافات في الصور. واجهت أنظمة الكمبيوتر صعوبات عديدة وعوائق كبيرة في تحديد ذلك.
أبرز باحثون من فرنسا وسويسرا في إحدى التجارب كيف أدى هذا التشويش في الرؤية إلى عجز الكمبيوتر عن التمييز بين السنجاب والثعلب أو كوب القهوة وحيوان المكاو.
ولكي يتمكن العلماء من مساعدة الكمبيوتر على التعرف على الصور فإنهم يستخدمون الشبكات العصبية. وهي عبارة عن شبكات كبيرة من الكمبيوترات مدربة على حل المشكلات المعقدة.
وتحتوي الشبكة العصبية على مئات المستويات أو الطبقات على غرار المخ البشري. وكل مستوى من هذه المستويات يفحص جزءا مختلفا من المشكلة. وفي نهاية المطاف فإن الإجابة التي تصدر من جميع هذه المستويات على اختلافها تجمع معا لإنتاج إجابة واحدة نهائية.
لكن القائمين على تصميم أطر الذكاء الاصطناعي قد أغفلوا العديد من الخصائص المهمة للخلايا العصبية البيولوجية رغبة منهم في التبسيط. وقد بدأت عيوب ذلك تتضح بشكل ملحوظ.
وتتواصل الخلايا العصبية للإنسان في ما بينها عبر خاصية تأخير نقل النبضات، وتتنوع من حيث معدل نقلها للمعلومات بين سريع وبطيء، والكثير من الخلايا العصبية تطلق نبضاتها اعتمادا على توقيت ما تتلقاه بدوره من نبضات.
ومن الاختلافات الأخرى بين المخ البشري وطريقة عمل الآلة الذكية أن الشبكات العصبية الصناعية تعتمد على انتقال الإشارات عبر متواليات في اتجاه واحد. أما الخلايا العصبية بالقشرة المخية للإنسان فتنقل الإشارات العصبية بطريقة عمودية من أعلى إلى أسفل كما تنقلها بالاتجاه الآخر، أي من أسفل إلى أعلى.
ويقول جيفري باورز، عالم الأعصاب بجامعة بريستول والباحث في أوجه النشاط المخي التي تفتقر إليها الشبكات العصبية الصناعية حاليا، إن “الشبكات الصناعية تعتمد على توحيد خلاياها، لكن خلايا المخ تتعدّد في أشكالها، وهو ما يدفعني إلى الاعتقاد بأن لذلك صلة وظيفية وثيقة”.
واستفاد الإنسان كثيرا في العصر الحالي من الاعتماد على الخوارزميات الفعالة، التي يمكن للآلات التعلم منها، إلى جانب الإنجازات المبهرة التي حققتها أنظمة الذكاء الاصطناعي المختلفة على هذا الصعيد وتمكنها بشكل ملحوظ من وقف عمليات التزوير قبل أن تقع، ورصد الأمراض المزمنة بدقة عالية.
مخاطر عالية
لكن رغم ذلك فإنه على ما يبدو أن حتى أكثر آلات الذكاء الاصطناعي تطورا في هذه الأيام لا تملك ما يضاهي الذكاء الذي يتّصف به الكائن البشري بشكل عام.
ويقول دانييل لود، الأستاذ المساعد بقسم علوم الكمبيوتر والمعلومات بجامعة أوريغون الأميركية “يشعر العاملون في مجال التعلم الآلي والذكاء الاصطناعي بالقلق حيال عمليات الاحتيال بسبب زيادة الاعتماد على هذه الخوارزميات”.
ويضيف لود “يمكن أن تصل إلى بريدك الإلكتروني الرسائل المزعجة غير المرغوب فيها أو تتعرض البعض من رسائل بريدك للحجب. لكن هذا ليس نهاية العالم”.
ويوضح أستاذ علوم الكمبيوتر والمعلومات بجامعة أوريغون “إذا كنت تعتمد كليا على نظام الرؤية في السيارات ذاتية القيادة لمعرفة المكان الذي تتجه إليه وتفادي الاصطدام بأي شيء، فإن المخاطر ستكون أعلى” مقارنة بالقيادة التقليدية.
ويرجع السبب في تعطل الآلة الذكية أو تعرضها للقرصنة. إلى الطريقة المختلفة التي ترى بها خوارزميات التعلم الآلي العالم من حولها.
ويشرح ريتش كاروانا، كبير الباحثين في مؤسسة ميكروسوفت للأبحاث. مثل هذا الأمر بقوله “ربما خطر ببالكم أن الطريقة التي يعمل بها الذكاء الاصطناعي هي أننا نفهم البشر. ومن ثم نبني الذكاء الاصطناعي بنفس الطريقة تماما” مستدركا “لكن الأمور لا تسير بتلك الطريقة”.
وضرب كاروانا مثالا على الطائرات التي اخترعت قبل وقت طويل من امتلاك العلماء فهما تفصيليا لآلية الطيران لدى الطيور. ولذلك امتلك البشر، حسب تعبيره، ديناميكيات طيران مختلفة ومع ذلك فلديهم اليوم طائرات بإمكانها التحليق أعلى وأسرع من الطيور.
وقبل عدة عقود، قام كاروانا بمحاولة اختبار برنامج للذكاء الاصطناعي على البعض من البيانات الطبية. لتفسير البعض من الأعراض المرضية ونتائجها.
وكان الهدف من هذه الاختبارات هو حساب مدى خطر الموت الذي قد يتعرض له المريض في يوم معين. بحيث يمكن للأطباء اتخاذ تدابير وقائية تساعد هذا المريض على التماثل للشفاء أو تجنب الإصابة بالأمراض.
وقد سارت الأمور في البداية على ما يرام، إلى أن اكتشف طالب من جامعة بيتسبيرغ شيئا غريبا. عندما كان بصدد معالجة نفس البيانات، سطرا بسطر، عن طريق قواعد خوارزمية أكثر بساطة.
وكان الهدف من هذه التجربة أن يتمكن الطالب فيما بعد من قراءة منطقها في عملية اتخاذ القرار. وكانت إحدى القراءات تقول “الربو جيد بالنسبة إليك إذا كان لديك التهاب رئوي”.
ولكن الأطباء تعجبوا من مثل هذا الخطأ، وقالوا يجب تفاديه. فمن المعروف طبيا أن الرّبو يشكل عاملا خطيرا في الإصابة بالالتهاب الرئوي، حيث أن كليهما يؤثر على الرئتين.
ولا يعرف الأطباء لماذا توصلت الخوارزميات إلى هذه القاعدة، غير الصحيحة. ويقول تاي وان كيم، المتخصص في مجال أخلاقيات الذكاء الاصطناعي في جامعة كارنيغي ميلون في بيتسبورغ. “هنالك في وادي السيليكون نقص في الوعي بهذه المسائل الأخلاقية”.
وتابع وان كيم موضحا “كما أن المؤسسات الدينية والحكومات ليس لديها اطلاع كاف حول هذه التكنولوجيا”. واستنتج وان كيم أنه “بالتالي لا يمكن للمؤسسات الدينية والحكومات المساه²مة في النقاش الدائر. ودورنا نحن هو ردم هذه الهوّة بين الطرفين”.
ومع زيادة الاهتمام باستعمال الذكاء الاصطناعي في مختلف مجالات الحياة اليوم. يساور القلق العديد من الخبراء بسبب عدم انتباه أنظمة الذكاء الاصطناعي إلى التفاصيل عالية الدقة، مثلما يفعل الإنسان.
وفرض الاتحاد الأوروبي، في عام 2018. تشريعات جديدة تعطي الأفراد الحق في الحصول على تفسير للمنطق الكامن وراء قرارات أجهزة الذكاء الاصطناعي.
واستثمرت الذراع البحثية للجيش الأميركي، وهي وكالة مشاريع البحث الدفاعية المتقدمة (داربا). 70 مليون دولار في برنامج جديد لتفسير وشرح قرارات أجهزة الذكاء الاصطناعي.
وفي الآونة الأخيرة، شهدت الأنظمة الذكية تحسنا كبيرا في ما يتعلق بالدقة. لكنها لم ترتق بعد إلى مستوى ذكاء العقل البشري الذي يختلف كثيرا عن طريقة عمل نماذج التعلم الآلي العميق الحالي. ويبدو أن الارتقاء إلى مستوى الذكاء البشري سيتطلب أمدا غير معروف.
علينا القلق من الغباء البشري وليس الذكاء الاصطناعي
نشر موقع Project Syndicate مقالا لأستاذ الاقتصاد نورييل روبينى، يقول فيه إن انشغال العالم بمستقبل الذكاء الاصطناعى. وخوفهم من تأثيره السلبى على البشرية، فى غير محله. بل عليهم الانشغال بالغباء البشرى الذى أدى إلى انتشار الحروب والصراعات الجسيمة واتساع نطاقها. مما يعنى وجود خلل فى السياسات العالمية المتبعة لتهدئة الأوضاع. بينما الذكاء الاصطناعى من الممكن أن يساعدنا فى التغلب على غباء البشر. ويخلق عالما أفضل، فقط إن أحسنا إدارة آثاره السلبية… نعرض من المقال ما يلى:
استهل الكاتب حديثه: منذ عودتى من اجتماع المنتدى الاقتصادى العالمى فى دافوس هذا العام. سئلت مرارا وتكرارا عن أكبر ما خرجت به من نتائج هناك. بين القضايا التى نوقشت على نطاق واسع هذا العام كان الذكاء الاصطناعى ــ وخاصة الذكاء الاصطناعى التوليدى (GenAI). ومع تبنى نماذج اللغات الضخمة أخيرا مثل النموذج الذى يقوم عليه ChatGPT. تنشأ آمال عريضة ــ ويعلو الضجيج ــ حول ما يمكن أن يفعله الذكاء الاصطناعى لتعزيز الإنتاجية والنمو الاقتصادى فى المستقبل.
للإجابة عن هذا السؤال. يجب أن نضع فى الحسبان أن عالمنا يهيمن عليه الغباء البشرى بدرجة أكبر كثيرا من خضوعه للذكاء الاصطناعى. ويؤكد انتشار التهديدات الجسيمة أن سياستنا مختلة بدرجة كبيرة.
وأن سياساتنا مضللة إلى الحد الذى يجعلها عاجزة عن معالجة حتى المخاطر الأشد فداحة ووضوحا التى تهدد مستقبلنا. والتى تشمل تغير المناخ الذى سيخلف تكاليف اقتصادية ضخمة. والدول الفاشلة التى ستجعل الموجات من لاجئات ولاجئى المناخ أكبر. والجوائح المرضية الخبيثة المتكررة التى قد تكون أشد ضررا على المستوى الاقتصادى من جائحة مرض فيروس كورونا 2019 (كوفيدــ19).
ما يزيد الطين بلة أن منافسات جيوسياسية خطيرة تتطور لتتحول إلى حروب باردة جديدة ــ كتلك بين الولايات المتحدة والصين ــ أو حروب ساخنة محتملة الانفجار. كتلك الدائرة فى أوكرانيا والشرق الأوسط. وفى مختلف أنحاء العالم، تسبب اتساع فجوات التفاوت فى الدخل والثروة، المدفوع جزئيا بالعولمة المفرطة والتكنولوجيات الموفرة للعمالة. فى إشعال شرارة ردة فعل عكسية ضد الديمقراطية الليبرالية، وخلق الفرص للحركات السياسية الشعبوية والاستبدادية والعنيفة.
كما تهدد مستويات غير مستدامة من الديون الخاصة والعامة بالتعجيل باندلاع أزمات الديون والأزمات المالية. وربما نشهد عودة التضخم وصدمات العرض الكلى السلبية المسببة للركود التضخمى. ويسير الاتجاه الأعرض على مستوى العالم نحو سياسات الحماية، وإلغاء العولمة، وفك الارتباط، ومحاولات الاستغناء عن الدولار.
علاوة على ما سبق. نجد أن تكنولوجيات الذكاء الاصطناعى الجديدة الشجاعة التى قد تساهم فى النمو ورفاهة البشر تنطوى أيضا على إمكانات مدمرة عظمى. فهى تستخدم بالفعل للدفع بالمعلومات المضللة، والتزييف العميق. والتلاعب بالانتخابات إلى مستويات مفرطة، فضلا عن إثارة المخاوف بشأن البطالة التكنولوجية الدائمة، بل وحتى فجوات التفاوت الأشد اتساعا. ولا يقل عن ذلك شؤما صعود الأسلحة الذاتية التشغيل والحرب السيبرانية المعززة بالذكاء الاصطناعى.
تابع قراء المقال : علينا القلق من الغباء البشري وليس الذكاء الاصطناعي
يضيف الكاتب: فى انبهارهم ببريق الذكاء الاصطناعى، لم يركز الأشخاص الحاضرون فى دافوس على أغلب هذه التهديدات الجسيمة. ولم يكن هذا مفاجئا. فمن خلال خبرتى، تشكل الروح السائدة فى المنتدى الاقتصادى العالمى مؤشرا مضادا للاتجاه الذى يسلكه العالم حقا. الواقع أن صناع السياسات وقادة الأعمال متواجدون هناك لبيع كتبهم وتبادل العبارات المبتذلة. إنهم يمثلون الحكمة التقليدية السائدة، التى تستند غالبا إلى رؤية عبر نافذة خلفية للتطورات العالمية وتطورات الاقتصاد الكلى.
تابع قراء المقال : علينا القلق من الغباء البشري وليس الذكاء الاصطناعي
ويستكمل: عندما حذرت فى اجتماع المنتدى الاقتصادى العالمى فى عام 2006 من أن الأزمة المالية العالمية قادمة. انصرف الناس عنى باعتبارى من المتشائمين. وعندما توقعت فى عام 2007 أن تواجه دول عـدة فى منطقة اليورو قريبا مشكلات الديون السيادية. اكـفـهـر وجه وزير المالية الإيطالى ونـهـرنى لفظيا وفى عام 2016. عندما سألنى الجميع ما إذا كان انهيار سوق الأوراق المالية الصينية ينذر بهبوط حاد من شأنه أن يتسبب فى تكرار الأزمة المالية العالمية. زعمت ــ وكنت محقا ــ أن الصين سوف تواجه هبوطا وعرا لكنه موجه. خلال الفترة من 2019 إلى 2021، كان الموضوع المساير للموضة فى دافوس فقاعة العملات الرقمية المشفرة. التى انهارت ابتداء من عام 2022. ثم تحول التركيز إلى الهيدروجين النظيف والأخضر، وهو بدعة أخرى بدأت تتلاشى بالفعل.
تابع قراء المقال : علينا القلق من الغباء البشري وليس الذكاء الاصطناعي
عندما يتعلق الأمر بالذكاء الاصطناعى. لا يخلو الأمر من احتمال كبير للغاية أن تعمل التكنولوجيا على تغيير العالم بالفعل فى العقود القادمة. لكن تركيز المنتدى الاقتصادى العالمى على الذكاء الاصطناعى التوليدى يبدو فى غير محله بالفعل. مع الأخذ فى الاعتبار أن تقنيات وصناعات الذكاء الاصطناعى فى المستقبل سوف تذهب إلى ما هو أبعد من هذه النماذج. لنتأمل هنا على سبيل المثال الثورة الجارية فى مجال الروبوتات والتشغيل الآلى. والتى سـتـفـضى قريبا إلى تطوير روبوتات تحمل سـمات شبيهة بالبشر وقادرة على التعلم والقيام بمهام متعددة على غرار الإنسان. أو لنتخيل ما قد يفعله الذكاء الاصطناعى للتكنولوجيا الحيوية، والطب، وفى نهاية المطاف صحة الإنسان ومدى حياته. ولا تقل عن ذلك إثارة للاهتمام التطورات التى يشهدها مجال الحوسبة الكمومية. والتى ستندمج فى نهاية الأمر مع الذكاء الاصطناعى لإنتاج تطبيقات متقدمة لكتابة الشفرة وتعزيز الأمن السيبرانى.
تابع قراء المقال : علينا القلق من الغباء البشري وليس الذكاء الاصطناعي
ينبغى أيضا تطبيق ذات المنظور البعيد الأمد على المناقشات التى تتناول المناخ. لقد بات من المرجح على نحو متزايد ألا تـحـل مشكلة المناخ بالاستعانة بمصادر الطاقة المتجددة . التى تنمو ببطء أشد من أن يسمح لها بإحداث تغيير كبير ـ. أو التكنولوجيات الباهظة التكلفة مثل احتجاز وعزل الكربون والهيدروجين الأخضر. بدلا من ذلك، قد نشهد ثورة فى مجال الطاقة الاندماجية. شريطة أن نتمكن من بناء مفاعل تجارى فى غضون السنوات الخمس عشرة المقبلة. هذا المصدر الوفير للطاقة النظيفة الرخيصة، إلى جانب تحلية المياه غير المكلفة والتكنولوجيا الزراعية. من شأنه أن يسمح لنا بإطعام عشرة مليارات من البشر الذين سيعيشون على كوكب الأرض بحلول نهاية هذا القرن.
تابع قراء المقال : علينا القلق من الغباء البشري وليس الذكاء الاصطناعي
على نحو مماثل، لن تتمحور ثورة الخدمات المالية حول سلاسل الكتل اللامركزية أو العملات الرقمية المشفرة. بل ستتميز هذه الثورة بنوع من التكنولوجيا المالية المركزية المدعومة بالذكاء الاصطناعى والتى تعمل بالفعل على تحسين أنظمة الدفع. والإقراض وتخصيص الائتمان، والاكتتاب فى التأمين، وإدارة الأصول. وسوف يقودنا علم المواد إلى ثورة فى المكونات الجديدة، وتصنيع الطباعة الثلاثية الأبعاد، وتكنولوجيات النانو، والبيولوجيا التخليقية. كما سيساعدنا استكشاف الفضاء واستغلاله فى إنقاذ الكوكب وإيجاد طرق لإنشاء أنماط حياة خارج الكوكب.
• • •
الحق أن هذه التكنولوجيات وغيرها كثير من الممكن أن تغير العالم نحو الأفضل. ولكن فقط إذا تمكنا من إدارة آثارها الجانبية السلبية، وفقط إذا استـخـدمـت لحل كل التهديدات الجسيمة التى نواجهها.
لا يملك المرء إلا أن يأمل أن يتغلب الذكاء الاصطناعى يوما ما على غباء البشر. لكنه لن يحظى بالفرصة أبدا إذا دمرنا أنفسنا أولا.