fbpx
مركز رواق للأبحاث والرؤى والدراسات

مخاطر الذكاء الاصطناعي بين التهوين والتهويل… وتحركات دولية جادة للسيطرة على تطوره

120

مخاطر الذكاء الاصطناعي بين التهوين والتهويل… وتحركات دولية جادة للسيطرة على تطوره

انتشر في السنوات القليلة الماضية مصطلح: “الذكاء الاصطناعي”، ورغم أنه مصطلح قديم منذ الخمسينيات؛ إلا أنه أخذ طابعًا مختلفًا خلال هذه الأيام، إذ أصبحت الدول والشركات والأفراد -على حدٍّ سواء- يسعى كل منهم لتطويع الذكاء الاصطناعي واستخدامه لصالحه في شتى المجالات، وكلما حدث تطورًا في تكنولوجيا الذكاء الاصطناعي، أحدث ذلك جدلًا عميقًا حول التطور الحادث، وهو ما يشير في الحقيقة إلى ضرورة التأمل في التطور الحادث وقياس أثره على القضايا التي يثور الجدل حولها.

ومن بين الجدالات المطروحة هو إلى أي مدى سيهدد الذكاء الاصطناعي البشرية ويقضي على وظائف البشر؟

والأخطر من ذلك: كيف ستحول الدول المالكة لتطوير الذكاء الاصطناعي هذه التكنولوجيا، في الهيمنة على دول العالم الثالث أو خصومهم التاريخيين والسياسيين؟ وهل سيستخدمها الغرب في فرض أجندته على الدول النامية لتمرير قضايا، مثل: الإلحاد، والشذوذ والنسوية، والدِّين الإبراهيمي، وتتضمن إجابته على الأسئلة المتعلقة بمثل هذه القضايا ونحوها إجابات تعبر عن رأي وأجندة مطورة؟

هذه الأسئلة وأكثر سنحاول الإجابة عليها أو -على الأقل- تسليط الضوء لعلنا نحصل على إجابة شافية بعد ذلك، مع التأكيد على أننا لن نكون في صفوف المهولين أو المهونين.

لمحة تاريخية:

ظهر الذكاء الاصطناعي في سنوات الخمسينيات، واستُخدم هذا المصطلح للمرة الأولى خلال مؤتمر جامعة دارتمورث بشأن الذكاء الاصطناعي في صيف عام 1956م، ومنذ ذلك الحين، نشر المبتكرون والباحثون نحو 1.6 مليون منشور يتعلق بالذكاء الاصطناعي، وأودعوا طلبات براءات لحوالي 340 ابتكار يتعلق بالذكاء الاصطناعي.

ومع مرور السنوات أدَّى التطور إلى تصميم خوارزميات تعلُّم الآلة التي مكّنت أجهزة الكمبيوتر من تجميع المعارف وإعادة برمجتها تلقائيًّا انطلاقًا من تجاربها الخاصة، وأدَّى هذا إلى ظهور تطبيقات صناعية، منها: (تحديد بصمات الأصابع، والتعرف على الكلام، إلخ)، حيث تتواجد تقنيات مستمدة من الذكاء الاصطناعي، والإعلامية، والحياة الاصطناعية، وغيرها من الاختصاصات، بغرض توفير نظم هجينة.

واعتبارًا من أواخر التسعينيات، تمّ ربط الذكاء الاصطناعي بالرُوبوتات وبالوَاجهة بين الإنسان والآلة؛ لإنتاج حواسيب ذكية توحي بوجود أوضاع عاطفية ومشاعر؛ مما أدَّى -على سبيل المثال لا الحصر- إلى إحصاء العواطف (الحوسبة العاطفية) الذي يقيم ردود فعل الفرد الناتجة عن مشاعره ليعيد إنتاجها على الآلة، ولا سيما إلى تطوير روبوتات قادرة على المحادثة.

أصبح بداية من عام 2010 من الممكن استغلال البيانات الضخمة بواسطة تقنيات التعلُّم العميق التي تعتمد على استخدام الشبكات العصبية الشكلية، ويجرنا ظهور تطبيقات مثمرة في العديد من المجالات (التعرف على الكلام، التعرف على الصور، فهم اللغة الطبيعية، سيارة ذاتية القيادة، إلخ)، إلى الحديث عن نهضة الذكاء الاصطناعي بقوة في 2020(1)

مميزات تطبيقات الذكاء الاصطناعي:

جاء إعلان شركة (OpenAI)، في 14 مارس 2023، عن إطلاق النسخة الجديدة (GPT-4)، وهي النسخة المحسَّنة من نموذج (GPT-3.5) التي بني عليها روبوت الدردشة (ChatGPT)، وتتمتع هذه النسخة الجديدة بالعديد من القدرات المتطورة مقارنة بالقديمة، وقدرة على التنبؤ من بين النماذج المختلفة، حيث إنه مدعوم بالتعلم الآلي، وكميات هائلة من البيانات والمعلومات، مما يمكنه من إجراء المحادثات بطريقة واقعية مع المستخدمين والرد على جميع الاستفسارات والتساؤلات المعقدة التي يطرحونها عليه؛ علاوة على تمكنه من كتابة وتأليف النوتات الموسيقية، وكتابة الأكواد البرمجية، وحل المعادلات الرياضية، وكتابة الروايات والقصص، والأشعار، والمقالات، والأطروحات والرسائل العلمية؛ فضلًا عن إمكانية استخدامه من قِبَل العلماء لترجمة أعمالهم الأصلية من لغتهم الأم إلى اللغة الإنجليزية.

وجدير بالذكر: أن الشركة المطورة (OpenAI) تزعم أن النموذج الجديد (GPT-4) يتميز عن سابقه بأنه أكثر إبداعية ودقة في المعلومات وأقل تحيزًا (less biased).

وتتمثَّل أهم الاختلافات في أن النموذج الجديد (GPT-4) نموذج متعدد الوسائط؛ إذ يملك القدرة على تحليل النصوص والصور في الوقت نفسه، مما يسمح للمستخدمين بطرح أسئلة حول الصور التي يدخلونها، كما يتميز بقدرته على القيام ببعض العمليات المنطقية الأساسية من قبيل تلخيص النصوص والمقالات، وكذلك يمتلك النموذج الجديد شخصيات متنوعة أو ما يسمى: بـ”القابلية للتوجيه” (Steerability)، والتي تعني قدرته على تغيير سلوكه وطريقة حديثه.

بالإضافة إلى تعدد استخدامات التطبيقات في مختلف المجالات، حيث يمكن استخدامه في الكتابة والتأليف والترجمة وتحرير النصوص، وذلك بالنظر إلى قدرته على اكتشاف الأخطاء اللغوية والنحوية؛ هذا بالإضافة إلى إمكانية استخدامه في مجال التسويق، والدعاية وصناعة المحتوى، من خلال قدرته على إعداد الحملات الإعلانية والدعائية بطرق إبداعية، علاوة على استخدامه في معرفة أبرز التطورات والمستجدات في مجال تكنولوجيا المعلومات وتقنيات الذكاء الاصطناعي، فضلًا عن تميز التطبيق بقدرته على القيام بمهام الدعم الفني، وتصميم وبرمجة وتطوير مواقع الويب، وكذا يمكن أن تساعد تطبيقات الذكاء الاصطناعي في جدولة المهام والتخطيط وإدارة الوقت، وكذلك قدرته الهائلة على التعامل مع مجموعة واسعة من الموضوعات وأنماط الكتابة المتنوعة.

وكذا الإجابة على التساؤلات المعقدة، وتقديم الإِرشادات التي تسهم في حل المشكلات في المجالات المختلفة(2).

آلية عمل تطبيقات الذكاء الاصطناعي:

أوضح الدكتور خالد الصردي، المدرس بكلية هندسة قسم حاسبات جامعة القاهرة، أن تطبيق ChatGPT الآن لا يتم توجيهه فعليًّا؛ لأنه لا يفهم وغير عاقل؛ لذلك نعتبره نوعًا متطورًا من البحث، والفرق أننا قديمًا كنا نبحث على جوجل مثلًا، فكان جوجل يبحث في صفحات الإنترنت على إجابة مشابهة للسؤال ثم تطور إلى أنه عند البحث عن سؤال يأتي بالمتشابه ثم يعطيك إجابة بناءً على ما وجده في الصفحات، فنعتبر أنه بدأ فعلًا بقراءة صفحات النتائج، ويستنتج النتيجة ويُظهرها لك؛ توفيرًا للوقت في البحث عن الإجابة بمفردك.

وأضاف “الصردي” -في تصريحات خاصة لـ”رواق”-: الفترة الأخيرة بدأت شركة open ai مدعومة من مايكروسوفت، تحاول عمل بحث يكون أقوى من جوجل، وخاصة مع كون bing لا يسأل عنها أحد، ومن هنا بدأوا في استخدام التعلم العميق والشبكات العصبية، وجمعوا كمًّا هائلًا من البيانات والصفحات الموجودة على الإنترنت وحفظها، وللدقة هو هنا لا يحفظها بالضبط، ولكنه يتعلَّم الموجود فيها، حتى لو سألته سؤالًا موجودًا في أحد الصفحات بطريقة مباشرة أو غير مباشرة سيبدأ في استنتاج الإجابة، مشيرًا إلى أنه يظل لا يفهم ما يطرحه فعليًّا بمعنى أنه ليس عقل بشري، هو فقط ينقل ما يجده في الصفحات.

وأشار “الصردي” إلى أن ChatGPT يعتبر مساعد إلكتروني لا يجب أن يتم التعامل معه على أنه يفهم أو أن إجاباته صحيحة، فلو طلبت منه حل مسألة يجب أن تكون على علم بصحتها ولديك القدرة على التأكد من الحل، فمثلًا: سؤاله عن قصة حياة قائد كتائب الصواريخ في موقعة أحد، ستجد في النتائج أسم يشبه أسماء الصحابة في الغالب ممَّن حضروا الغزوة، ولكنه ليس واحدًا منهم؛ فضلًا عن أنه سيخلط المعلومات وقصص حياتهم، والفكرة أن سؤالك ليس له إجابة، ولكنه لا يفهم ذلك فيتم برمجته على الثقة وأن السؤال له إجابة، فيحاول وضع إجابة عن طريق التشابه وتقريب المعلومة حتى وإن لم تكن صحيحة.

وأكد على أن معلوماته غير موثوقة وغير مطلوب أن تكون موثوقة؛ لأن أساس مهمته فقط أن يكون مساعدًا ومساعدًا جيدًا جدًّا، لكن يظل مطلوب الإشراف عليه ممَّن يستخدمه، مشيرًا إلى أنه لو طلب منه مقال عن روعة الإلحاد سيكتبه، ولو طلبت مقال عن مدى بشاعة الإلحاد سيكتبه، ولو طلبت مقال يؤيد الشذوذ سيكتبه كأفضل ما يكون مع كلِّ المراجع والكلام الذي يقوله أتباع الشذوذ، ولو طلبت منه مقالًا عن حرمة الشذوذ فسيكتب لك مقالًا دينيًّا، ولو طلبت منه أن يكون المقال عن مدى أضرار الشذوذ من الناحية العلمية سيكتبه، فهو مساعد؛ فقط عليك أن تعرف كيف تسأله السؤال الصحيح وبالصيغة الصحيحة، وللحقيقة فربما يمنعك من أن يكتب طريقة للانتحار أو عمل المتفجرات أو قصة جنسية، ولكن هذا تم بتدخل بشري من خلال فحص الكلمات التي تكتبها في سؤالك، فيجلب النتائج الإباحية عن طريق خداعة بالوصف، وليس بالكلمات المباشرة.

وتتمثَّل آلية عمل تلك التقنية الجديدة في تجميع عددٍ هائلٍ من البيانات من المصادر الإلكترونية على شبكة الإنترنت، ثم تقديم الإجابات والردود المناسبة على الأسئلة التي يتم طرحها في خلال ثوانٍ قليلة؛ الأمر الذي يمكن اعتباره إحدى نقاط التحول الكبيرة في تاريخ البشرية الحديث.

وظائف مهدَّدة بالاختفاء:

مع تطور تطبيقات الذكاء الاصطناعي والتوسع في استخداماتها، حاول المختصون توقع الوظائف التي ستتأثر بهذه التكنولوجيا، وإلى أي مدى سيحل الذكاء الاصطناعي محل الوظائف البشرية، وهو الأمر الذي يدعو إلى تدبر وتعقل شديد في دراسة هذه التوقعات وبدائلها قبل أن نأخذها على محمل الجد وننفر عنها، فنقع في المحظور ونعاني مستقبلًا من ندرة في الوظائف المتوقع اختفاؤها على غرار ما حدث في الوظائف المهنية واختفاء صنايعية المهن وتدهور التعليم الفني نتيجة الانفتاح الشديد في التعليم الجامعي بالكليات النظرية.

ومن أبرز الوظائف المهددة بالاختفاء:

1. التسويق عبر الهاتف:

مع ظهور الذكاء الاصطناعي والأتمتة من المرجح أن تختفي هذه الوظيفة، وتستبدل بروبوتات الدردشة التي تتمتع بالقدرة على أتمتة العديد من المهام الروتينية التي يقوم بها المسوقون عبر الهاتف.

على سبيل المثال: وجدت دراسة أجرتها شركة Accenture أن خوارزميات الذكاء الاصطناعي يمكنها أداء هذه المهام بشكل أسرع 24 مرة، وبمعدل دقة أعلى بكثير مقارنةً بالموظفين البشريين.

2. خدمة العملاء (Customer service):

خدمة العملاء واحدة من الوظائف والمهن التي ستختفي بسبب الذكاء الاصطناعي والتكنولوجيا، فمن الممكن استبدالها بروبوتات الدردشة، حيث يمكنها التعامل مع استفسارات العملاء وحل مشاكلهم، وتقديم توصيات للمنتجات والخدمات بشكل أسرع بثلاث مرات مقارنة بالبشر، حسب دراسة أجرتها شركة Accenture.

3. الترجمة:

الترجمة من الوظائف القديمة التي رافقت الإنسان خلال مسيرة تطوره، ولعبت دورًا مهمًّا في نقل المعلومات بين الحضارات وربط الشعوب ببعضها البعض، لكن مع التقدم التكنولوجي بدأ سوق العمل بالتغير بالفعل، فجزء كبير من عمل المترجمين يتم إنجازه اليوم بواسطة البرامج والتطبيقات كترجمة غوغل مثلًا.

4. ادخال البيانات (Data entry):

يمكن رؤية أحد الأمثلة الواقعية على استبدال الذكاء الاصطناعي لموظفي إدخال البيانات في مجال الخدمات المالية، فقد اعتمدت العديد من البنوك والمؤسسات المالية على برمجيات مدعومة بالذكاء الاصطناعي لأتمتة العمليات المكتبية، وقد أدَّى ذلك إلى تقليل الوقت والتكلفة المرتبطين بإدخال البيانات يدويًّا بشكل كبير.

5. أمانة الصناديق (الكاشير):

في استطلاع أجرته شركة Accenture؛ قال 60٪ من المستهلكين إنهم يفضلون خيارات الدفع للخدمة الذاتية، وقال 44٪ إنهم سيكونون على استعداد لدفع المزيد مقابل البضائع إذا كان ذلك يعني تجنب الخطوط والتفاعل مع الصرافين.

6. قيادة السيارات:

يواجه حوالي 8 من كل 10 سائقين خطر فقدان وظيفتهم بنسبة 50٪ أو أعلى؛ على سبيل المثال: بدأت شركات، مثل: Amazon وUPS بالفعل في تجربة مركبات التوصيل ذاتية القيادة لتوصيل الطرود للعملاء.

7. صرافي البنك:

حل الذكاء الاصطناعي محل العديد من وظائف صرافي البنوك، فقد أدَّى ظهور الخدمات المصرفية عبر الإنترنت، وتطبيقات الخدمات المصرفية عبر الهاتف المحمول، وأجهزة الصراف الآلي (ATM) إلى انخفاض الحاجة إلى صرافين البنوك في الفروع المادية.

8. وظائف قطاع الوجبات السريعة:

الوظائف المرتبطة بقطاع الوجبات السريعة هي أيضًا من الوظائف والمهن التي ستختفي بسبب الذكاء الاصطناعي والتكنولوجيا، فقد بدأت بالفعل العديد من مطاعم الوجبات السريعة، اعتماد أكشاك الخدمة الذاتية التي تتيح للعملاء تقديم طلباتهم الخاصة، والدفع دون الحاجة إلى تفاعل بشري؛ بالإضافة إلى تحضير الطعام آليًّا، حيث تُستخدم الآلات والروبوتات التي تعمل بالذكاء الاصطناعي في مطابخ الوجبات السريعة لأتمتة مهام إعداد الطعام، مثل: شوي البرغر وقلي الدجاج، وصنع البيتزا، وهذا يقلل من الحاجة إلى العمالة البشرية، ويحسن سرعة ودقة تحضير الطعام.

9. عمالة المصانع:

أحد الأمثلة على هذا الاتجاه هو صناعة السيارات، حيث أصبحت الروبوتات شائعة بشكل متزايد في عمليات التجميع والإنتاج؛ فقد قامت شركات، مثل: Foxconn، وهي الشركة الرائدة في تصنيع الإلكترونيات بتطبيق أنظمة أتمتة واسعة النطاق في مصانعها؛ مما أدَّى إلى انخفاض كبير في عدد العمال لديها.

10. أمانة المكتبات:

مع التطور التكنولوجي وزيادة الاعتماد على الكمبيوتر والهواتف المحمولة من أجل القراءة، فمِن المتوقع أن تختفى وظيفة أمين المكتبة، خصوصًا مع توفر المعلومات والكتب الإلكترونية على الإنترنت.

وفقًا لتقرير “مستقبل الوظائف لعام 2020” الصادر عن المنتدى الاقتصادي العالمي، فإنه بحلول عام 2025 قد يتم استبدال 85 مليون وظيفة على مستوى العالم؛ هذا التحول في مشهد الوظائف هو مصدر قلق متزايد في أوساط العمال والموظفين بمختلف أنحاء العالم(3).

بعض الوظائف التي من غير المحتمل أن يحل محلها الذكاء الاصطناعي:

  • الوظائف التي تتطلب الذكاء العاطفي، مثل: الأطباء والأخصائيين الاجتماعيين، وموظفي الموارد البشرية.
  • الوظائف التي تتطلب حل المشكلات المعقدة، مثل: الباحثين.
  • الوظائف القيادية، مثل: مدراء الأعمال والرؤساء.
  • الوظائف في المجالات التي تتضمن معرفة ثقافية أو اجتماعية مهمة، مثل: علماء الآثار، وعلماء الأنثروبولوجيا، والمعلمين.

مخاطر محتملة وتخوفات مشروعة:

تبرز الانعكاسات المتعلقة بالذكاء الاصطناعي على مجالات متعددة، فرغم تعدد فوائده ومميزاته، يظل الغموض يسيطر على جزء كبير من التطور الحادث في هذا المجال، وتزداد مع الوقت المخاطر المحتملة من استخدامه، وتثور حول هذه المخاطر عدة تساؤلات مشروعة عن انعكاساته على نمط حياة البشر والمجتمعات، وذلك من حيث تأثيراته على مجال التعلم البشري والبحث، وعملية صنع القرار، ومعايير الحوكمة، وكذا تأثيره على مستقبل الوظائف وفرص العمل، والمخاطر المحتملة على الأمن القومي للدول، والمخاطر المتعلقة بالهوية الدينية والوطنية للشعوب العربية وفرض أجندت غربية على العالم العربي والإسلامي.

 فعلى سبيل المثال: في عملية التعلم والبحث في قطاع التعليم على مستوى العالم، اتجه عدد كبير من الطلاب والمعلمين في الآونة الأخيرة نحو الاعتماد على الـ(ChatGPT) في العملية التعليمية فضلًا عن استخدامه من قِبل البعض كوسيلة للغش في الامتحانات أو “الانتحال العلمي”، فقد أظهر استطلاع حديث أجرته مؤسسة “والتون فاميلي آند إمباكت ريسيرش” الأمريكية، أن (51%) من المعلمين والعديد من الطلاب يستخدمون تطبيقات الذكاء الاصطناعي في المدارس هناك، كما وجد استطلاع آخر شمل 1000 كلية أمريكية أن 30% من الطلاب استخدموا الذكاء الاصطناعي في المهام أو الواجبات الكتابية؛ بالإضافة إلى أن اعتماد الباحثين على تقنيات وقدرات تطبيقات الذكاء في تأليف وكتابة المقالات والتقارير والبحوث العلمية، وهذا قد يتسبب في نشر معلومات خاطئة، فضلًا عن كونه سيشكك في الأبحاث والعلوم المنشورة على المستوى الأكاديمي.

وفي الجانب التقني والأمني، هناك مخاطر تتعلق بفبركة الصور والفيديوهات، بل والصوت ذاته، مما يسهل عمليات الابتزاز والتهديد وتعكير السلم المجتمعي، وزيادة التفكك الأسري، وكذا تعقيد مهام رجال الأمن والقضاء في الوصول إلى حقيقة مرتكبي الجرائم.

ويثور تخوف شديد في تمرير مفاهيم وقيم تخالف المفاهيم والقيم الدينية والمجتمعية للمجتمعات الشرقية، مثل: الإشادة بالديانة الإبراهيمية وتجميل صورتها، ودعم الشذوذ والتعايش معه، واعتبار المساكنة وأنواع الزواج المخالف للشرائع السماوية مقبول ومستساغ، ووضع الإباحية ضمن نتائجه المعتادة المقبولة، هدم الثوابت والمعتقدات، وازدراء الأديان تحت شعار الحرية، والتشكيك في رسالات الأنبياء والطعن في السنة الشريفة وكتاب الوحي، وصياغة هذه الإجابات بطريقة تجذب عقول الشباب ممن يستهواهم البحث في هذه القضايا، ونحن هنا لا نهول من خطره بقدر ما نلفت النظر إلى هذه التخوفات المشروعة.

تحركات دولية لتنظيم استخدام الذكاء الاصطناعي:

أقرَّ البرلمان الأوروبي قانونًا جديدًا من نوعه لتنظيم استخدام الذكاء الاصطناعي حيث صوّت لصالحه 488 نائبًا بينما عارضه 28، وامتنع 93 آخرون عن التصويت، وسينظم التشريع، الذي اقتُرح للمرة الأولى عام 2021، في أيّ دولة من التكتل، أي منتج أو خدمة تستخدم تكنولوجيا الذكاء الاصطناعي، وسيصنّف التشريع أنظمة الذكاء الاصطناعي في أربع درجات من “الأقل خطورة” إلى “غير المقبول”، وعلى سبيل المثال: ستخضع التطبيقات الأهمّ، مثل: تطبيقات التوظيف، أو التكنولوجيا التي تستهدف الأطفال، لمجموعة من القيود والقوانين الأشد، خصوصًا لناحية البيانات والشفافية، وينصّ التشريع أن الانتهاكات قدّ تكلَّف مرتكبيها غرامات ضخمة تصل إلى نحو 30 مليون يورو أو 6 بالمائة من الإيرادات السنوية للشركة، وهي النسبة التي قد توازي المليارات في حالة الشركات الكبرى، مثل: غوغل، ومايكروسوفت.

وحذّر أمين عام الأمم المتحدة، أنطونيو غوتيريش من التهديدات التي قد تشكلها أنظمة الذكاء الاصطناعي غير المضبوطة، قائلًا: “نحن بحاجة إلى فعل أي شيء ممكن للتأكد من أن التطور المستقبلي للذكاء الاصطناعي لا يدخل في المنطق الذي يلغي تمامًا القدرة البشرية، ويخلق وحشًا لن يتمكن أحد من السيطرة عليه.

إن مخاطر الأخبار المضللة قد ازدادت مؤخرًا مع التطور التكنولوجي السريع على غرار الذكاء الاصطناعي التوليدي “الذي يسمح بإنتاج صور وفيديوهات مزّيفة، لكنها واقعية أكثر فأكثر”، معربًا عن تأييده لإنشاء وكالة أممية متخصصة بالذكاء الاصطناعي “مستوحاة من الوكالة الدولية للطاقة الذرية”، مشيرًا إلى أن الدول الأعضاء فقط هي صاحبة القرار(4).

كشفت مصر عن خطتها لمواجهة الخطر الداهم الذي سينجم عن التوسع في استخدام تقنيات الذكاء الاصطناعي.

وأعلن مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء خطة الحكومة لمواجهة تحديات تقنيات الذكاء الاصطناعي، ودور مصر في صياغة العديد من المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي في منظمات دولية مختلفة، مثل: منظمة التعاون الاقتصادي والتنمية، ومنظمة اليونسكو، ومجموعة العشرين، وقيادتها لفرق تعمل على توحيد التوصيات الأخلاقية للذكاء الاصطناعي على المستوى الإقليمي داخل الاتحاد الإفريقي، وجامعة الدول العربية.

وكشف المركز: أن مصر أطلقت الإستراتيجية الوطنية للذكاء الاصطناعي في يوليو 2021، كما تم إطلاق الميثاق المصري للذكاء الاصطناعي المسؤول وذلك في إبريل الماضي لبلورة الأطر التنظيمية للاستخدام الأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي في المجتمع المصري؛ الأمر الذي يساعد في ضمان إدارة وتطوير ونشر أنظمته في الدولة واستخدامها بشكل واعٍ ومسؤولٍ.

حلول مقترحة للحدِّ من المخاطر:

تتلخص الحلول المطروحة للحد من المخاطر المحتملة للذكاء الاصطناعي في النقاط التالية:

  • حرية تداول المعلومة بشأن التطورات الجديدة بحيث لا تحتكر دولة دون غيرها التكنولوجيا.
  • تشكيل لجان متخصصة لقياس الأثر المتوقع للمخاطر ووضع حلول له.
  • سن تشريعات مُلزمة لتقنين وضع تكنولوجيا الذكاء الاصطناعي.
  • التزام الدول بعدم استخدام التكنولوجيا في غير الأغراض المخصصة لها لمساعدة البشرية، وليس فرض قِيَم وأجندات عليها.
  • دعم الدول النامية للبحث العلمي والصرف على التعليم لمواكبة هذه التكنولوجيا، وامتلاك طرف من أطرافها، وتطويعها لقيمنا وخدمتنا.

وبحسب الباحث جان غابريال غاناسيا، يمكن تحقيق الحماية من مخاطر تطبيقات الذكاء الاصطناعي من خلال 7 طرق:

  • وضع أنظمة لحماية خصوصية الأفراد، والحفاظ على الشفافية في جمع البيانات.
  • وضع مبادئ توجيهية أخلاقية لضمان استخدام الذكاء الاصطناعي بشكل مسؤول ولأغراض مفيدة فقط.
  • تنفيذ قوانين للحماية من إساءة استخدام الذكاء الاصطناعي، مثل: منع التمييز، وضمان الوصول العادل إلى الفرص.
  • وضع سياسات للحد من الأضرار المحتملة للذكاء الاصطناعي، مثل: الحد من الاستخدام المحتمل لتقنية التعرف على الوجه للمراقبة.
  • وضع معايير واضحة للتطوير المسؤول واعتماد تقنيات الذكاء الاصطناعي والتعلم الآلي، بما في ذلك بروتوكولات الاختبار الصارمة قبل النشر.
  • مطالبة الشركات التي تقوم بتطوير تقنيات الذكاء الاصطناعي بتوفير مستوى عالٍ من الأمان وتحمل المسؤولية عن أي آثار سلبية قد تحدثها التكنولوجيا الخاصة بهم على المجتمع.
  • توفير التعليم والتدريب على الآثار الأخلاقية والمخاطر، وأفضل الممارسات لاستخدام تقنيات الذكاء الاصطناعي من أجل ضمان نشرها واستخدامها بشكل آمن في المجتمع(5).

مثال على إجابات الذكاء الاصطناعي:

في السطور التالية سنسأل أحد تطبيقات الذكاء الاصطناعي عن مخاطره؛ لنرى كيف سيجيب؟ وهل يمكن أن يقف على حقيقة مخاطره أم لا؟

إجابة تطبيق “جوجل بارد” أحد تطبيقات الذكاء الاصطناعي:

الذكاء الاصطناعي (AI) هو مجال سريع التطور من التكنولوجيا له القدرة على إحداث ثورة في العديد من جوانب حياتنا، ومع ذلك هناك أيضًا مخاطر محتملة مرتبطة بالذكاء الاصطناعي، بما في ذلك:

  • فقدان الوظائف: يمكن للذكاء الاصطناعي أتمتة العديد من المهام التي يقوم بها البشر حاليًا؛ مما قد يؤدي إلى فقدان الوظائف على نطاق واسع.
  • التحيز: يمكن للذكاء الاصطناعي أن يكون متحيزًا، مما قد يؤدي إلى التمييز ضد المجموعات السكانية المعينة.
  • الضرر: يمكن للذكاء الاصطناعي أن يُستخدم للتسبب في ضرر للبشر، مثل: تطوير الأسلحة الذاتية التشغيل.
  • السيطرة: يمكن للذكاء الاصطناعي أن يُستخدم للسيطرة على البشر، مثل: استخدام الذكاء الاصطناعي لمراقبة الناس أو التحكم في أذهانهم.
  • من المهم أن نكون على دراية بالمخاطر المحتملة للذكاء الاصطناعي، وأن نتخذ خطوات لتخفيف هذه المخاطر. يمكننا القيام بذلك من خلال تطوير أنظمة الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية، وضمان أن يتم استخدام الذكاء الاصطناعي لصالح البشرية.

فيما يلي بعض الخطوات التي يمكننا اتخاذها لتخفيف مخاطر الذكاء الاصطناعي:

  • تطوير أنظمة الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية: يجب أن يتم تطوير أنظمة الذكاء الاصطناعي بطريقة تراعي المخاطر المحتملة للضرر والتحيز، ويجب أن تكون هذه الأنظمة شفافة وقابلة للتفسير؛ حتى يتمكن البشر من فهم كيفية عملها، واتخاذ قرارات مستنيرة بشأن استخدامها.
  • ضمان أن يتم استخدام الذكاء الاصطناعي لصالح البشرية: يجب أن يتم استخدام الذكاء الاصطناعي لصالح البشرية، وليس لإيذائها.
  •  يجب أن يتم استخدام الذكاء الاصطناعي لتحسين حياة الناس، وليس لتدميرهم.
  • العمل على تطوير إطار قانوني للذكاء الاصطناعي: يجب أن نضع إطارًا قانونيًّا للذكاء الاصطناعي يضمن استخدام الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية.
  • يجب أن يحدد هذا الإطار القواعد واللوائح التي يجب اتباعها عند تطوير واستخدام الذكاء الاصطناعي.

من خلال اتخاذ هذه الخطوات، يمكننا المساعدة في ضمان أن يكون الذكاء الاصطناعي قوة للخير في العالم.

الخلاصة:

لا شك أن الصيحة الحالية في مجال التكنولوجيا هي استخدام الذكاء الاصطناعي، ورغم أن كثيرًا من مطوريه يسعى لإبراز كيفية الاستفادة منه وتطويعه لخدمة البشرية، وتتنافس الشركات المطورة فيما بينها على الوصول لأقصى استفادة من هذه التكنولوجيا؛ إلا أن التحركات الدولية الساعية لضبطه ووضع إطار قانوني له يحد من مخاطره الأخلاقية تؤكد على أن هناك إرادة عالمية لكبح جماح الذكاء الاصطناعي قبل أن يفقدوا السيطرة عليه.

ويمكن بالفعل كبح جماح تطور الذكاء الاصطناعي والحد من مخاطره إذا توفرت المعلومات الخاصة بكافة تفاصيل التطوير، وإلى أي مدي يمكن أن يصل، وكيف نتغلب على سوء استخدامه، مع توفر الإرادة العربية على عدم تمرير ما يخالف قيمها الدينية والمجتمعية.

المراجع:

المنظمة العالمية للملكية الفكرية (الويبو)

معلومات مجلس الوزراء المصري

الرابح دوت كوم

Euronews

ففريدام

التعليقات مغلقة.