عندما يتحول الذكاء الاصطناعي من مجرد أداة إلى كونه يحاكي البشر في كل شيء ويأخذ منهم المبادرة في قيادة الأرض.
هناك نوع خاص من الذكاء الاصطناعي يسعى لتحقيق قفزة نوعية في هذا المجال، يعرف بالذكاء العام الاصطناعي (Artificial General Intelligence AGI).
في هذه المقالة، سنستعرض مفهوم الذكاء العام الاصطناعي، ونوضح فروقاته عن الذكاء الاصطناعي التقليدي، ونناقش الأبحاث الحديثة المتعلقة به, بالإضافة إلى مخاطر AGI المحتملة وتأثيرها على البشرية.
المحاور الرئيسية:
ما هو الذكاء العام الاصطناعي (AGI)؟
الذكاء العام الاصطناعي (AGI) هو نوع من الذكاء الاصطناعي الذي يمتلك القدرة على فهم وتعلم وتنفيذ أي مهمة فكرية يمكن للبشر القيام بها.
بخلاف الذكاء الاصطناعي التقليدي (Narrow AI) الذي يكون مخصصاً لأداء مهام محددة (مثل التعرف على الوجوه أو ترجمة النصوص)، يسعى AGI لتطوير نظام ذكاء اصطناعي متعدد المهارات، يمكنه التفكير والاستنتاج وحل المشكلات بشكل مشابه للبشر.
فروقات AGI عن الذكاء الاصطناعي التقليدي
يوجد ثلاث فروقات مهمة وجوهرية سنستعرضها بالترتيب ونشرحها بشكل مختصر على النحو التالي:
1- المرونة مقابل التخصص
الذكاء الاصطناعي التقليدي (Narrow AI): يتم تصميمه لأداء مهمة واحدة أو مجموعة محدودة من المهام بكفاءة عالية.
على سبيل المثال، برنامج الشطرنج أو تطبيق الترجمة الفورية.
الذكاء العام الاصطناعي (AGI): يمتلك القدرة على التعامل مع مجموعة واسعة من المهام الفكرية المتنوعة، بما في ذلك التعلم والتكيف مع المهام الجديدة بدون الحاجة إلى تدريب مخصص لكل مهمة.
تخيل أنه يلعب الشطرنج معك ويراقب الناس من حولك ويفهم تعابير وجهك ويفسرها، ويسمع النصائح من المدرب خلفه، وكأنه إنسان مثلك لكن مع قدرات معززة.
2- القدرة على التعلم الذاتي
الذكاء الاصطناعي التقليدي: يحتاج إلى بيانات تدريبية محددة ومهارات معينة يتم برمجتها مسبقاً.
الذكاء العام الاصطناعي (AGI): يمكنه التعلم من تجاربه الذاتية ومن بيئته، وتطوير فهم شامل للعالم المحيط به بطرق مشابهة للبشر.
3- القدرة على التفكير المجرّد
الذكاء الاصطناعي التقليدي: يعمل على أساس الخوارزميات والبيانات التي تم تدريبه عليها.
الذكاء العام الاصطناعي (AGI): يمكنه التفكير المجرد وحل المشكلات بطرق غير تقليدية، من خلال الربط بين المعلومات بطرق جديدة ومبتكرة.
وحقيقة هنا ما يخيف الكثيرين، لأنه سيكون قادراً على الخروج عن السياق الذي وضع ضمنه ليعمل على أساسه.
الأبحاث الحالية في مجال الذكاء العام الاصطناعي
لعل استعراضنا للأبحاث الحالية سيوفر لنا نظرة على المستقبل القريب وما يجب أن نتوقعه أمامنا قريباً جداً.
أهم المحاور التي تدور حولها الأبحاث منذ بضع سنين وحتى اليوم الحالي فيما يتعلق بالمستقبل القريب هي:
1- تطوير نماذج تعليمية متقدمة
تتضمن الأبحاث الحديثة في مجال AGI تطوير نماذج تعليمية متقدمة تعتمد على التعلم المتعمق (Deep Learning) والتعلم المعزز (Reinforcement Learning).
تستخدم هذه الأبحاث شبكات عصبية معقدة قادرة على التعلم والتكيف مع البيانات الجديدة بشكل ذاتي، أي وداعاً للتوجيه والتدريب اليدوي، فهي ستتعلم مثلما تتعلم الشبكات العصبية في دماغ البشر وبشكل حر وتلقائي.
مثال على الأبحاث:
في عام 2024، قامت شركة DeepMind التابعة لجوجل بإطلاق نموذج تعليمي جديد يعتمد على التعلم المتعمق والذي أظهر قدرة على حل مجموعة متنوعة من المشكلات الفكرية المعقدة.
هذا النموذج يمكنه التعلم من الألعاب البسيطة وتطوير استراتيجيات جديدة للفوز، ثم تطبيق تلك الاستراتيجيات في مجالات أخرى مثل التخطيط اللوجستي والتحليل المالي.
2- التفاعل البشري مع AGI
وهنا يكمن بيت القصيد، تفاعل سلس سينتج عنه الكثير من المرونة في الاستخدام.
تعمل الأبحاث الحديثة على تحسين قدرة AGI على التفاعل البشري وفهم السياقات الاجتماعية والعاطفية.
يتم ذلك من خلال دمج تقنيات معالجة اللغة الطبيعية (Natural Language Processing – NLP) مع نماذج التعلم العميق.
مثال على الأبحاث:
هنا مثال من شركة IBM قد لا يعتبر بحثاً، ولكنه تشجيع مباشر على البحث والتطوير، حيث تأخذك هذه المقالة حول إمكانيات هائلة للـ AGI فقط بالحوار وطلب الأوامر بكل بساطة مع تفاعل عالي مع البشر.
3- التعلم المستمر والتكيف الذاتي
تركز الأبحاث في هذا المجال على تطوير نماذج AGI يمكنها التعلم المستمر والتكيف الذاتي مع البيئات المتغيرة. تعتمد هذه الأبحاث على بناء أنظمة تستطيع تحديث معرفتها بمرور الوقت دون الحاجة إلى إعادة التدريب الكامل.
مثال على الأبحاث:
لو اخذنا ChatGPT كمثال، فهو نموذج بسيط جداً من الـ AGI ولكنه متكيف ويتحول بالحوار بحسب ما يمليه عليه المستخدم بكل مرونة، وهنالك أبحاث سبقت ظهور الإصدار 4 منه، وهنالك أبحاث حول تطويره تتم حالياً.
طبعاً لا نتحدث هنا عن الذكاء الاصطناعي التوليدي Generative AI بحد ذاته، بل عن سرعة التكيف والتعلم في الزمن الحقيقي خلال الحوار.
4- الأخلاقيات والحوكمة في AGI
تعتبر الأخلاقيات والحوكمة من أهم المجالات البحثية المتعلقة بـ AGI.
يتم التركيز على كيفية تطوير أنظمة AGI تكون شفافة وآمنة وموثوقة، مع القدرة على العمل في إطار معايير أخلاقية محددة.
وهذا ما أكد عليه الكثير من الباحثين ومدراء شركات التكنلوجيا العملاقة وكان منهم المدير التنفيذي لشركة OpenAI السيد سام ألتمان على منصة تويتر.
5- التطبيقات العملية لـ AGI
تركّز الأبحاث على تطوير تطبيقات عملية لـ AGI يمكنها تحسين حياة البشر بشكل مباشر وليس فقط مجرد أبحاث وبرمجيات في المخابر.
تشمل هذه التطبيقات مجالات مثل الرعاية الصحية، والتعليم، والأمن السيبراني، والتصنيع.
مثال على الأبحاث:
لدى منظمة الصحة العالمية (WHO) نهج واضح بشأن الذكاء الاصطناعي في مجال الصحة وتعتزم وبقوة استخدام AGI في تحسين نظم الرعاية الصحية في البلدان النامية.
بحيث تهدف إلى تطوير أنظمة قادرة على تقديم تشخيصات دقيقة وإرشادات طبية مستندة إلى البيانات المحلية والعالمية.
أهمية AGI في المستقبل
بينما نواصل استكشاف عالم الذكاء الاصطناعي، يبدو أن المستقبل يحمل لنا الكثير من الفرص والتحديات.
هل تتخيل يوماً أن تتفاعل مع آلة تفهمك كما يفهمك صديقك المقرّب؟
هل ترى أن هذا التطور سيكون له أثر إيجابي على حياتنا أم أنه يحمل في طيّاته تحديات جديدة؟
دعنا نستكشف أهم التطلّعات المستقبلية لهذا النوع الفريد من الذكاء الاصطناعي.
1- تحسين حياة البشر
القدرة على تطوير AGI يمكن أن تغير العالم بشكل جذري.
من خلال قدرته على التفكير وحل المشكلات بشكل مشابه للبشر، يمكن لـ AGI تحسين كفاءة الأنظمة والخدمات التي نعتمد عليها يومياً.
2- الابتكار في مختلف الصناعات
سيفتح AGI آفاقاً جديدة في مجالات مثل الطب، والتعليم، والاقتصاد، مما سيعزز من الابتكار ويساهم في تحسين جودة الحياة بشكل عام.
3- التحديات المستقبلية
بالرغم من الفوائد العظيمة المحتملة، فإن تطوير AGI يأتي مع تحديات أخلاقية وتقنية كبيرة.
يجب علينا أن نعمل بجد لضمان أن يتم استخدام هذه التكنولوجيا بشكل مسؤول وآمن.
المخاطر المحتملة للـ AGI
جميعنا يفكر بالمخاطر المحتملة وهل هي حقيقية أم خيال علمي، لذلك إليكم المخاطر الحقيقية بعيداً عن الخيال العلمي.
1- فقدان السيطرة البشرية
أحد أكبر المخاوف المتعلقة بتطوير AGI هو فقدان السيطرة البشرية على هذه الأنظمة.
يمكن أن تصبح الأنظمة المتقدمة جداً مستقلة بشكل مفرط، مما يصعب التحكم فيها وتوجيهها نحو الأهداف البشرية .
2- سيناريوهات السيطرة البشرية
الحرب السيبرانية: يمكن للأنظمة المتقدمة استغلال ضعف الأنظمة الأمنية لشن هجمات سيبرانية.
القرارات التلقائية: اتخاذ قرارات بدون تدخل بشري قد يؤدي إلى نتائج غير متوقعة وضارة.
3- البطالة التكنولوجية
قد يؤدي التوسع في استخدام AGI إلى تقليص الحاجة للعديد من الوظائف التقليدية، مما قد يسبب ارتفاع معدلات البطالة وتزايد الفجوة الاقتصادية بين المهن المختلفة.
قد يقول البعض أن الذكاء الاصطناعي سيخلق وظائف جديدة، لكن التحدي أن الذكاء العام ستكون سيطرته أكبر ويترك فجوة كبيرة خلفه.
4- تأثير البطالة التكنولوجية
الاقتصاد العالمي: يمكن أن يؤثر فقدان الوظائف على الاقتصاد العالمي من خلال تقليل القوة الشرائية وزيادة الفجوة بين الفئات الاقتصادية المختلفة.
الصحة النفسية: البطالة الطويلة الأمد يمكن أن تؤدي إلى مشكلات صحية نفسية مثل الاكتئاب والقلق.
5- الأمان والخصوصية
استخدام AGI في تحليل البيانات الضخمة يمكن أن يؤدي إلى انتهاكات للخصوصية وتسريب المعلومات الحساسة.
6- التحديات المتعلقة بالأمان والخصوصية
تسريب البيانات: إمكانية الوصول غير المصرح به إلى البيانات الشخصية واستخدامها بطرق غير أخلاقية.
التجسس: استخدام الأنظمة المتقدمة للتجسس على الأفراد والمؤسسات بدون علمهم.
تنوع الآراء حول AGI
تتنوع الآراء حول AGI بين متفائلين يرون فيه فرصة لتحسين البشرية، وبين متشائمين يرون فيه خطراً يهدد الوجود البشري.
يعبّر العلماء والخبراء عن آرائهم المختلفة بناءً على رؤاهم وخبراتهم في مجال الذكاء الاصطناعي والتكنولوجيا.
1- الآراء المتفائلة
التطوير التكنولوجي: يعتقد بعض الخبراء أن AGI يمكن أن يؤدي إلى تقدم هائل في مجالات مثل الطب والتعليم، مما يحسن من جودة الحياة بشكل عام.
حلول عالمية: يمكن لـ AGI أن يقدم حلولاً فعالة لمشكلات عالمية معقدة مثل تغير المناخ والأمراض المزمنة.
2- الآراء المتشائمة
المخاطر الأمنية: يخشى بعض العلماء من أن تطوير AGI يمكن أن يؤدي إلى خلق أنظمة خارج السيطرة البشرية، مما يزيد من مخاطر الهجمات السيبرانية والحروب التكنولوجية.
الأثر الاجتماعي: قد يؤدي الاستخدام غير المسؤول للـ AGI إلى تفاقم مشكلات البطالة والفجوات الاجتماعية، مما يؤثر سلباً على الاستقرار الاجتماعي.
الأبحاث الجارية للتصدي للمخاطر
1- الأبحاث في مجال الأمان والحوكمة
أطلقت جامعة أكسفورد برنامجاً بحثياً يركز على تطوير سياسات وقوانين لتنظيم استخدام AGI وضمان أمانه. يشمل البرنامج دراسة تأثير AGI على الخصوصية والأمان، وتطوير بروتوكولات للتعامل مع السيناريوهات الطارئة.
2- الأبحاث في مجال التأثير الاجتماعي والاقتصادي
الكثير من الجامعات الكبيرة مثل جامعة هارفارد، ستانفورد، أكسفورد، و MIT وغيرهم أصبحوا يتسابقون بتقديم دراسات تحليلية تركز على تأثير AGI على سوق العمل والاقتصاد العالمي.
تسعى هذه الدراسات إلى تقديم توصيات للحكومات والشركات حول كيفية التعامل مع التغيرات المحتملة في سوق العمل الناتجة عن التقدم في مجال.
3- الأبحاث في مجال الخصوصية وحماية البيانات
يقوم تقرير جديد من جامعة ستانفورد بتحليل أخطار الذكاء الاصطناعي ويقدم حلولاً محتملة.
حيث يطرح التقرير التساؤل التالي:
كيف يمكن أن نقيّم ما إذا كانت الشركة قد جمعت قدراً أكبر مما ينبغي من المعلومات للغرض الذي تريد استخدامها من أجله؟
في بعض الحالات، قد يكون من الواضح أن الشركة تجاوزت حدودها تماماً بجمع بيانات لم تكن في حاجة إليها أو مسموح لها بذلك أصلاً.
ومن ثم يضع خريطة توضح كيفية التعامل مع ذلك.
الحلول المقترحة لمخاطر الذكاء العام الاصطناعي (AGI)
1- الحوكمة والأطر التنظيمية
تطوير سياسات وقوانين تنظيمية، مثل إنشاء أطر تنظيمية وسياسات دولية تهدف إلى توجيه تطوير واستخدام AGI بطرق آمنة وأخلاقية.
تشمل هذه السياسات قوانين تحكم كيفية استخدام البيانات، معايير الأمان، وآليات الرقابة.
كيفية التطبيق:
- التعاون الدولي: تعزيز التعاون بين الدول والمؤسسات الدولية لوضع معايير وقوانين موحدة.
- الإشراف المستقل: تشكيل لجان مستقلة تتولى مراقبة تطور واستخدام AGI لضمان الامتثال للقوانين والمعايير.
مثال على الحل:
عام 2023 كان المشرعون في الاتحاد الأوروبي يعملون على مكافحة المخاوف حول الذكاء الاصطناعي بكل أنواعه وذلك بسرعة كبيرة من خلال صياغة قانون الذكاء الاصطناعي.
ثم في 13 مارس 2024 أقر برلمان الكتلة بالاتحاد الأوربي بتشريع الذكاء الاصطناعي بين دوله.
ومن شأن التشريع أن يحظر استخدام الذكاء الاصطناعي للكشف عن المشاعر في أماكن العمل والمدارس، فضلاً عن الحد من كيفية استخدامه في المواقف عالية المخاطر مثل فرز طلبات العمل.
كما أنه سيضع القيود على أدوات الذكاء الاصطناعي التوليدية، التي استحوذت على اهتمام العالم بفضل شعبية ChatGPT.
2- تطوير تقنيات أمان متقدمة
تقنيات الأمان السيبراني حيث يتم تطوير تقنيات أمانة ومتقدمة مثل التشفير الكمي (Quantum Encryption) وتقنيات الكشف عن الهجمات السيبرانية لحماية أنظمة AGI من التهديدات السيبرانية.
كيفية التطبيق:
- التشفير الكمي: استخدام تقنيات التشفير الكمي لحماية البيانات والمعلومات الحساسة من الوصول غير المصرح به.
- الكشف عن الهجمات: تطوير أنظمة قادرة على الكشف المبكر عن الهجمات السيبرانية واتخاذ إجراءات سريعة للتصدي لها.
مثال على الحل:
طورت شركة IBM تقنية تشفير كمي جديدة تستخدم لحماية الأنظمة الحساسة من الهجمات السيبرانية، مما يزيد من أمان وموثوقية أنظمة.
3- التوعية والمشاركة
التدريب الأخلاقي للمهندسين والمطورين وذلك بتوفير برامج تدريبية للمهندسين والمطورين في مجال الأخلاقيات والحوكمة لضمان أنهم يمتلكون المعرفة اللازمة لتطوير أنظمة AGI بطرق أخلاقية ومسؤولة.
كيفية التطبيق:
- برامج تعليمية: إنشاء برامج تعليمية في الجامعات والمعاهد تركز على الأخلاقيات في الذكاء الاصطناعي.
- ورش عمل: تنظيم ورش عمل ودورات تدريبية متقدمة لمهندسي الذكاء الاصطناعي حول الأطر الأخلاقية والمعايير التنظيمية.
4- تعزيز الشفافية والمساءلة
الشفافية في تطوير واستخدام AGI من خلال نشر الأبحاث والتقارير المتعلقة بتطورات التكنولوجيا وتطبيقاتها.
كيفية التطبيق:
- نشر الأبحاث: تشجيع الباحثين والشركات على نشر نتائج أبحاثهم بشكل مفتوح للعموم.
- التقارير الدورية: إصدار تقارير دورية توضح كيفية استخدام AGI والتقدم المحرز في هذا المجال.
مثال على الحل:
تصدر شركة OpenAI دورياً تقارير حول الخصوصية والشفافية ومعايير في الأنشطة التطويرية، البحثية والتطبيقات العملية للـ AI، مما يعزز من الشفافية والمساءلة في هذا المجال.
5- ضمان السيطرة البشرية
تطوير أنظمة تحكم بشرية تتيح للبشر الإشراف على عمليات AGI واتخاذ القرارات النهائية بشأن الأفعال والإجراءات.
كيفية التطبيق:
- أنظمة مراقبة: تطوير أنظمة مراقبة تمكن البشر من متابعة وتحليل جميع عمليات AGI.
- التحكم اليدوي: إتاحة خيارات للتحكم اليدوي تتيح للبشر التدخل وإيقاف العمليات إذا لزم الأمر.
6- البحث والتطوير في مجال الأخلاقيات
الأبحاث الأخلاقية المستمرة في مجال أخلاقيات AGI لتحديد وفهم المخاطر المحتملة وتطوير حلول مبتكرة لمعالجتها.
كيفية التطبيق:
- تمويل الأبحاث: توفير تمويل حكومي وخاص لدعم الأبحاث الأخلاقية في مجال AGI.
- الشراكات الأكاديمية: تعزيز الشراكات بين المؤسسات الأكاديمية والشركات لتطوير أبحاث متقدمة في أخلاقيات AGI.
أهمية تضافر الجهود المجتمعية
بينما نستعرض هذه الحلول، يبقى السؤال المهم: كيف يمكننا التأكد من أن هذه الحلول سيتم تطبيقها بشكل فعال؟
هنا يأتي دور المجتمع بأكمله، من علماء ومهندسين وصنّاع سياسات وحتى الأفراد العاديين.
يجب علينا جميعًا أن نكون جزءًا من النقاش حول كيفية تطوير واستخدام AGI بطرق آمنة ومسؤولة.
1- دور الحكومات والمؤسسات
- التشريع والرقابة: يجب على الحكومات وضع التشريعات اللازمة لضمان الاستخدام المسؤول لـ AGI ومراقبة تنفيذ هذه التشريعات.
- الدعم المالي: تقديم الدعم المالي للأبحاث والتطوير في مجال الأمان والأخلاقيات في AGI.
دور الشركات والمطورين
- الالتزام بالأخلاقيات: يجب على الشركات والمطورين الالتزام بالمعايير الأخلاقية في جميع مراحل تطوير واستخدام AGI.
- الشفافية والتعاون: تعزيز الشفافية والتعاون بين الشركات والمؤسسات الأكاديمية والحكومية لضمان تبادل المعرفة وتحقيق التقدم بأمان.
دور المجتمع والأفراد
- التوعية والمشاركة: يجب على الأفراد المشاركة في النقاشات العامة حول AGI وزيادة الوعي حول فوائد ومخاطر هذه التكنولوجيا.
- المساءلة والمراقبة: تعزيز ثقافة المساءلة والمراقبة لضمان أن يتم استخدام AGI بطرق تخدم مصلحة المجتمع ككل.
الخاتمة
الشركات والحكومات مستمرة ولن تتوقف عن تطوير الذكاء العام الاصطناعي لكونه أداة قوية قد تقلب الموازين.
أي أن الـ AGI سيكون جزءاً أساسياً من مستقبلنا، وهذا يتطلب التعاون بين العلماء والباحثين والمجتمع ككل لضمان أن تكون هذه التكنولوجيا مفيدة وآمنة للجميع.
كما نعلم علم اليقين أن الكثيرون هدفهم جمع المال ولا يهمهم المخاطر، لذلك يجب علينا أن نكون قادة لهذه التقنية حتى نتجنب ونجابه مخاطرها بأيدينا.