في الوقت الذي يواصل فيه الذكاء الاصطناعي تحقيق قفزات مذهلة، يواجه البشر تحديًا جديدًا وهو عدم القدرة على فهم أو تفسير النتائج التي يقدمها.
هذا الواقع يثير أسئلة جوهرية حول طبيعة الذكاء الاصطناعي، وكيف يمكننا الوثوق بحلول لا نعرف كيفية الوصول إليها.
المحاور الرئيسية:
الذكاء الاصطناعي وحل المشكلات غير القابلة للحل
الذكاء الاصطناعي يستخدم تقنيات مثل الشبكات العصبية العميقة Deep Neural Networks والتعلم المعزز Reinforcement Learning، والتي تُصمم للتعامل مع البيانات الضخمة واستكشاف الأنماط الخفية فيها.
وفقًا لمقالة منشورة في LiveScience، يمكن للذكاء الاصطناعي تقديم حلول تتجاوز فهم الإنسان، مثل تحسين تصميمات معقدة أو اقتراح تراكيب كيميائية جديدة للأدوية.
ومع ذلك، فإن طبيعة هذه الخوارزميات تجعل من الصعب على البشر تفسير الخطوات التي اتبعتها للوصول إلى النتيجة.
أوهام الفهم The illusions of understanding
لقد حدد الخبراء بالفعل ثلاثة أوهام على الأقل يمكن أن تخدع الباحثين الذين يستخدمون الذكاء الاصطناعي.
1- الأول هو “وهم العمق التفسيري”
فمجرد أن يتفوق نموذج الذكاء الاصطناعي في التنبؤ بظاهرة ما مثل AlphaFold، الذي فاز بجائزة نوبل في الكيمياء لتوقعاته لهياكل البروتين، فهذا لا يعني أنه يمكنه تفسيرها بدقة.
وقد أظهرت الأبحاث في علم الأعصاب بالفعل أن نماذج الذكاء الاصطناعي المصممة للتنبؤ الأمثل يمكن أن تؤدي إلى استنتاجات مضللة حول الآليات العصبية الحيوية الأساسية.
2- الثاني هو “وهم الاتساع الاستكشافي”
وهم الاتساع الاستكشافي يشير إلى خطأ شائع يرتكبه الباحثون عند استخدام الذكاء الاصطناعي في الأبحاث الاستكشافية.
يعتقد الباحثون أنهم يستكشفون جميع الفرضيات أو السيناريوهات الممكنة بفضل قوة الذكاء الاصطناعي، لكن الحقيقة هي أنهم قد يكونون مقيدين بمجموعة صغيرة فقط من الفرضيات التي يستطيع النظام معالجتها.
كيف يحدث هذا الوهم؟
- الذكاء الاصطناعي يعتمد بشكل كامل على البيانات التي يتم تدريبه عليها. إذا كانت البيانات محدودة أو تحتوي على تحيزات، فإن النظام سيتجاهل العديد من الفرضيات الأخرى المحتملة.
- الخوارزميات قد تكون موجهة نحو أنواع معينة من الفرضيات بناءً على الطريقة التي تم تصميمها بها. على سبيل المثال: إذا كان النظام مبرمجًا للبحث عن أنماط رياضية فقط، فقد يتجاهل عوامل أخرى، مثل العوامل البيئية أو النفسية.
- الذكاء الاصطناعي، حتى في أكثر أشكاله تقدمًا، يعمل ضمن إطار القواعد والمعايير التي تم تحديدها مسبقًا. هذا يحد من قدرته على التفكير خارج هذا الإطار.
- عندما يعتمد الباحثون اعتمادًا كاملًا على الذكاء الاصطناعي دون التفكير النقدي أو التدخل البشري، يصبح البحث محدودًا بحدود قدرات النظام.
3- وأخيرًا، “وهم الموضوعية”
قد يعتقد العلماء أن نماذج الذكاء الاصطناعي خالية من التحيز، أو أنها قادرة على التعامل مع جميع أنواع التحيزات المحتملة.
ولكن في الواقع لا يمكنها ذلك، وهذه النماذج فعلاً تعكس التحيزات الموجودة في بيانات التدريب ونوايا مطوريها.
ما هو الفرق بين التنبؤ والفهم في سياق الذكاء الاصطناعي؟
ما هو التنبؤ؟
التنبؤ في الذكاء الاصطناعي يشير إلى قدرة النموذج على تقديم نتيجة أو مخرجات بناءً على البيانات التي تم تدريبه عليها.
مثال: نموذج AlphaFold يمكنه التنبؤ بهيكل البروتين بناءً على تسلسل الأحماض الأمينية.
هذه القدرة تعتمد على تحليل الأنماط الإحصائية الموجودة في البيانات، دون الحاجة لفهم السبب البيولوجي الذي يجعل البروتين يتخذ هذا الشكل.
ما هو الفهم؟
الفهم يتعلق بمعرفة السبب الكامن وراء النتيجة أو الآلية التي أدت إليها.
مثال: في حالة AlphaFold، الفهم يعني شرح العمليات البيولوجية والكيميائية التي تجعل البروتين ينطوي (Folding) بطريقة معينة.
لماذا هذا التمييز مهم؟
- التنبؤ يمكن أن يكون أداة قوية لحل المشكلات، لكنه لا يفسر الآليات العميقة.
- الفهم ضروري إذا كنا بحاجة إلى تفسير علمي شامل يمكن تطبيقه في سيناريوهات مختلفة أو لتطوير حلول جديدة.
كيف يؤثر هذا على مثالنا AlphaFold؟
- AlphaFold يُظهر قدرات مذهلة في التنبؤ بهياكل البروتين، لكنه لا يفسر لماذا يحدث هذا الانطواء بشكل دقيق.
- العلماء يستخدمون النتائج التي يقدمها AlphaFold كأداة مساعدة، لكنهم يحتاجون إلى دراسات بيولوجية إضافية لفهم العمليات الكامنة.
مثال توضيحي عام
إذا أخبرك نموذج ذكاء اصطناعي أن شخصًا معينًا سيكون متأخرًا عن العمل غدًا بناءً على سجل حضوره السابق (التنبؤ)، فهو لا يشرح الأسباب الشخصية أو الاجتماعية التي تجعله يتأخر، إذاً ينقصنا هنا الفهم.
لماذا يصعب فهم نتائج الذكاء الاصطناعي؟
1- تعقيد الخوارزميات
تعتمد العديد من تقنيات الذكاء الاصطناعي، مثل الشبكات العصبية، على عدد كبير نسبياً من الطبقات والمعادلات الرياضية.
هذه الطبقات تعمل بشكل مترابط لتحليل البيانات، لكن لا يمكن للبشر دوماً تتبع أو فهم العلاقة الدقيقة بينها.
على سبيل المثال، عندما تقترح خوارزمية دواءً جديدًا، قد لا يكون واضحًا كيف أثرت كل خطوة في تشكيل هذا الاقتراح.
2- مفهوم “الصندوق الأسود“
تُعرف بعض تقنيات الذكاء الاصطناعي بأنها تعمل داخل صندوق أسود Black Box، حيث يمكن رؤية المدخلات والمخرجات، ولكن العملية الداخلية تظل غير مفهومة.
هذا يثير القلق حول القرارات الحساسة، مثل تشخيص الأمراض أو إدارة الأصول المالية.
3- الاعتماد على التعلم الذاتي
الذكاء الاصطناعي يستخدم على التعلم غير المشرف Unsupervised Learning لاكتشاف الأنماط في البيانات بشكل مستقل، وكلمة “بشكل مستقل” تصبح مقلقة ويجب مراقبتها لفهم طريقة عملها.
هذا يجعل من الصعب تتبع كيف يتعلم النظام ولماذا يتخذ قرارات معينة.
4- نقص التفسير Explainability Gap
حتى مع ظهور تقنيات الذكاء الاصطناعي التوضيحي Explainable AI، فإن تفسير النماذج المعقدة يظل محدودًا.
غالبًا ما تُنتج هذه التفسيرات معلومات سطحية لا تقدم تفاصيل كافية.
وقد كنّا اوردنا سابقاً مقالة تفصيلية عن هذه التحديات من هنا.
أمثلة توضيحية من الواقع
1- اكتشاف الأدوية
أعلنت شركة “إنسيليكو ميديسن” عن نتائج واعدة من تجربتها السريرية للمرحلة 2a لعقار ISM001-055، وهو جزيء صغير تم تطويره باستخدام الذكاء الاصطناعي لعلاج التليف الرئوي مجهول السبب IPF.
هذا العقار يستهدف بروتين TNIK (Traf2- and NCK-interacting kinase)، ويُعتبر الأول من نوعه الذي يستهدف هذا البروتين.
على الرغم من فعالية العقار المحتملة، إلا أن الباحثين واجهوا تحديات في تفسير المنطق وراء تركيبته، نظرًا لتعقيد الخوارزميات المستخدمة في تصميمه.
2- تحسين الشبكات الكهربائية
تمكنت أنظمة الذكاء الاصطناعي من إعادة تصميم شبكات الطاقة لتقليل الاستهلاك، لكن المهندسين لم يستطيعوا فهم المنهجية التي اتبعتها في تحسين الكفاءة.
3- التزييف العميق Deepfake
الذكاء الاصطناعي يمكنه إنشاء صور وفيديوهات مزيفة بدقة مذهلة. مع ذلك، فإن فهم كيفية إنتاج هذه النتائج يظل نوعاً ما صعب الفهم حتى بالنسبة للمختصين.
هل المشكلة بهذا الحجم؟
هذه المشكلة ليست دائماً كما نظن، المهندسون والخبراء في أغلب الأحيان يكونون فاهمين وواعين جيداً كيف تعمل الخوارزميات والنماذج والشبكات، ولكن التحديات تظهر بشكل جلي بالنماذج المعقدة مثل الشبكات العصبية العميقة أو التعلم المعزز، وليس بكل أنواع الذكاء الاصطناعي.
تسليط الضوء عليها في الآونة الأخيرة سببه يعود إلى كثرة الاعتماد على نتائج الذكاء الاصطناعي، وارتفاع درجة الثقة بالنتائج وخصوصاً لغير المتخصصين، مع ظهور نماذج ضخمة تعالج بيانات ضخمة جداً ومرشّحة بشكل قوي لتعمل بطريقة مبهمة من خلال تعقيداتها.
كما أن المبالغة في “وهم الموضوعية” من قبل البعض ليس صحيحاً، فالتحيّز يعتمد على جودة البيانات المستخدمة في التدريب وتصميم النموذج، وقد تطورت أساليب تقليل التحيزات.
ما هي الحلول الممكنة؟
1- تعزيز الشفافية
تطوير تقنيات الذكاء الاصطناعي التوضيحي Explainable AI لجعل العمليات الداخلية للخوارزميات أكثر وضوحًا.
و الذكاء الاصطناعي التوضيحي XAI هو فرع من الذكاء الاصطناعي يهدف إلى جعل عمليات اتخاذ القرار في الأنظمة الذكية أكثر شفافية وقابلة للفهم من قبل البشر.
بدلاً من أن تكون الأنظمة عبارة عن صناديق سوداء Black Boxes تُنتج مخرجات دون تفسير واضح، يسعى XAI إلى تقديم تفسيرات منطقية ومفهومة حول كيفية اتخاذ القرار أو الوصول إلى النتيجة.
والأمر يتعدى مجرد الفهم والتفسير، بل هو ضروري للأمور كثيرة ومهمة منها بناء الثقة، التوافق مع لوائح وتشريعات معينة، تحسين الأداء، وتجنب التحيز.
2- إشراف متعدد التخصصات
العمل بين خبراء في التكنولوجيا وعلماء النفس والرياضيات لفهم القرارات المعقدة التي يتخذها الذكاء الاصطناعي.
والتخصصات المتعددة مطلوبة للأسباب التالية:
- تعقيد الخوارزميات: التعاون بين التخصصات يساعد على فك شفرة الخوارزميات المتقدمة مثل الشبكات العصبية العميقة والشبكات التوليدية الخصومية GANs.
- الآثار النفسية والسلوكية: علماء النفس يمكنهم تحليل كيفية تحسين تجربة المستخدم وزيادة الثقة في النظام من خلال القرارات التي يتخذها الذكاء الاصطناعي التي تؤثر على البشر نفسيًا وسلوكيًا.
- الأخلاقيات والمساءلة: علماء الأخلاقيات والرياضيات يعملون لضمان أن تكون الخوارزميات عادلة وشفافة لتصبح قرارات الذكاء الاصطناعي غير متحيزة أو تنطوي على تبعات أخلاقية، مثل التمييز ضد فئة معينة.
3- تبسيط النماذج
تبسيط النماذج يعني تقليل التعقيد الرياضي والتقني للخوارزميات التي يعتمد عليها الذكاء الاصطناعي، وذلك باستخدام تقنيات أو نماذج أبسط يمكن للبشر فهمها بسهولة أكبر.
بدلاً من اللجوء دائمًا إلى الشبكات العصبية العميقة أو النماذج المتقدمة مثل التعلم العميق Deep Learning، يمكن استخدام خوارزميات تعتمد على الرياضيات البسيطة أو الأطر التقليدية التي تكون أقل غموضًا.
طبعاً تبسيط النماذج ليس امراً متاحاً دوماً أو ينصح به لأنه في حالات كثيرة فنحن أمام حاجة ملحّة لنماذج معقدة لحل مسائل شائكة جداً ومع ذلك التبسيط يبقى خياراً متاحاً ضمن المستطاع.
4- تعليم البشر كيفية قراءة النتائج
بدون فهم واضح للنتائج، قد يؤدي ذلك إلى اتخاذ قرارات خاطئة أو حتى فقدان الثقة في الأنظمة الذكية.
لذلك يجب الاستثمار في تدريب المستخدمين على تفسير النتائج الصادرة عن أنظمة الذكاء الاصطناعي بشكل أفضل.
على سبيل المثال تدريب الأطباء على تفسير نتائج الأنظمة التنبؤية لتشخيص الأمراض، مثل فهم سبب تصنيف صورة أشعة معينة كمشبوهة.
أو تدريب موظفي البنوك على تحليل توصيات أنظمة الائتمان وفهم ما إذا كانت النتائج منطقية ومتماشية مع سياسات البنك.
الموضوع يحتاج ورش تعليمية، وواجهات تفاعلية جيدة للحوار وفهم النتائج.
خلاصة
بينما يستمر الذكاء الاصطناعي في تقديم حلول تتجاوز القدرات البشرية، يبقى تحدي فهم هذه الحلول قائمًا.
هذا يثير تساؤلات عميقة حول حدود الذكاء الاصطناعي ومكانة البشر في اتخاذ القرارات الحاسمة.
يمكن أن يكون المستقبل عبارة عن شراكة بين البشر والآلات، حيث يعمل كل منهما لتعويض نقاط ضعف الآخر.
الذكاء الاصطناعي قادر على معالجة مشاكل كانت تبدو غير قابلة للحل، لكنه في الوقت نفسه يترك البشر أمام تحديات جديدة تتعلق بفهم العمليات الداخلية.
الحل يكمن في تعزيز الشفافية، تطوير أدوات تفسيرية، والعمل معًا لتجاوز فجوة الفهم بين الآلة والعقل البشري.