تعتمد تقنيات الذكاء الاصطناعي الراهنة على المراقبة الجماعية التي باتت “المحرك الاقتصادي للقطاع التكنولوجي”، على ما حذّرت منه رئيسة منصة سيغنال للتواصل الاجتماعي ميريديث ويتاكر في مقابلة مع وكالة فرانس برس خلال معرض فيفاتك للتكنولوجيات الحديثة في باريس.ِ
وقالت ويتاكر، التي عملت أكثر من عشر سنوات على مسألة الأخلاقيات المرتبطة بالذكاء الاصطناعي لدى غوغل قبل ترك الشركة، إنّ الذكاء الاصطناعي “يتطلب كمية هائلة من البيانات” ويستخدمها “في كل مرة ينشئ محتوى”. وأضافت: “هذه البيانات التي قد تكون خاطئة بشكل كامل لها القدرة على توجيه حياتنا بطريقة ينبغي أن تثير قلقنا”. ورأت الخبيرة أن خطر الذكاء الاصطناعي يكمن في تصديق مقولة “الذكاء بقدرات تفوق البشر” غير الحقيقية، وعدم رؤية أن هذه التكنولوجيا موجودة حالياً في “أيدي حفنة من الشركات التكنولوجية الأميركية التي تسيطر على الذكاء الاصطناعي والبنى التحتية التي تنظمه”.
وأوضحت أن “هذه نتيجة النموذج الاقتصادي للمراقبة الجماعية الذي نشأ خلال تسعينيات القرن العشرين في الولايات المتحدة وبات المحرك الاقتصادي للقطاع التكنولوجي”. ونبهت إلى أننا “نستضيف هذه الشركات في حكوماتنا ومؤسساتنا الأساسية وحتى في حياتنا، من دون إدراكنا ذلك”. وأشارت إلى أنّ الذكاء الاصطناعي هو “أداة لمَن لديهم إمكانية الوصول إلى رأس المال، تُختَبَر عموماً على مَن لديهم سلطة أقل”، وأضافت أن “معظمنا لا يستخدم الذكاء الاصطناعي، بل أصحاب عملنا والسلطات يستخدمونه علينا”.
حقق تطبيق سيغنال الذي أُطلق عام 2014، ومُوّل من تبرعات ولم يعتمد حملة تسويقية شعبية واسعة بين المبلغين عن المخالفات والصحافيين. ويُعدّ التطبيق الأميركي مرجعاً في ما يخص سلامة البيانات، إذ لا يتطلب من المستخدم سوى مشاركة رقم هاتفه، وتشفر الرسائل عبر بروتوكول ابتكر داخلياً، كما أن كمية بيانات التعريف المُتاحة للتطبيق محدودة. وزادت شعبية “سيغنال” في أوائل عام 2021، عندما أعلن منافسه واتساب أنه سيشارك مزيداً من البيانات مع شركته الأم فيسبوك. ويبقى “سيغنال”، الذي يستخدمه بحسب الخبراء 40 مليون شخص، بعيداً كثيراً عن “واتساب” الذي يضم أكثر من ملياري مستخدم، أو “ماسينجر” مع نحو مليار مستخدم.
واتخذت الجهة الأميركية التي ابتكرت تطبيق المراسلة مقراً لها في باريس حتى نهاية العام، بهدف التركيز على السوق الأوروبية. لكنّ ويتاكر شددت على أنّ أوروبا لا ينبغي أن تحاول التنافس مع الولايات المتحدة أو الصين في سباق الذكاء الاصطناعي “من خلال خوارزميات تعزز أنظمة عدم المساواة والسيطرة”. ودعت المسؤولين الأوروبيين إلى “إعادة تصوّر تكنولوجيا قادرة على خدمة مجتمعات ديمقراطية أكثر وتحترم الحقوق بصورة أكبر”. ورأت أنّ تطبيق سيغنال “هو مثال جيد، ويظهر أنّ بإمكاننا بناء تقنية مختلفة ترفض النموذج الاقتصادي القائم على المراقبة”.
أما بالنسبة للحاجة إلى ذكاء اصطناعي مفتوح المصدر، وهو ما تدافع عنه الشركتان الفرنسيتان ميسترال إيه آي وهاغينغ فيس وشركة ميتا الأميركية، فلا تؤمن ويتاكر به. وقالت الخبيرة التي شاركت في كتابة مقالة عن هذه المسألة ستُنشر قريباً في مجلة نيتشر العلمية: “ما هو المصدر المفتوح في تكنولوجيا تتطلب مئة مليون دولار من الطاقة الحاسوبية لتدريب نموذج واحد؟”، وأضافت أن “إتاحة الوصول إلى مجموعات من البيانات والسماح باعتماد مزيد من الشفافية في النماذج يبقى مفيداً، لكننا بحاجة إلى مراجعة التعريف، ومساءلة أنفسنا عما نعنيه حقاً بالمصدر المفتوح”.
ودعت إلى التعامل بجدية مع وعود الذكاء الاصطناعي في ما يتعلق بالبيئة. ولفتت إلى “هناك حديث مستمر عن العلوم البيئية، وعن نوع من التدخل المناخي الذي سينتج عن القدرة على تحليل كميات كبيرة من البيانات، وتحديد الأنماط المتكررة واستخدام الذكاء الاصطناعي للمسائل المناخية”. وأكدت أنّ “كمية الطاقة اللازمة لإنشاء هذه الأنظمة ونشرها تجعلنا نرغب في البكاء”، لافتة إلى مساوئ “الاستخدام المكثف للوقود الأحفوري والموارد المائية”.
وفي سياق متصل، حذر العالم البارز والناشط في مجال الذكاء الاصطناعي ماكس تيغمارك من أن شركات التكنولوجيا الكبرى نجحت في صرف انتباه العالم عن الخطر الوجودي الذي ما زال يشكله الذكاء الاصطناعي على البشرية. وفي حديثه مع صحيفة ذا غارديان، خلال قمة الذكاء الاصطناعي المنعقدة في سيول في كوريا الجنوبية، قال إن التحول في التركيز من انقراض الحياة إلى مفهوم أوسع لسلامة الذكاء الاصطناعي يهدد بتأخير غير مقبول في فرض تنظيم صارم على مبتكري البرامج الأقوى. وذكر بـ”الخوف” الذي عبّر عنه “أشخاص مثل جيفري هينتون ويوشوا بينجيو، وحتى الكثير من الرؤساء التنفيذيين لشركات التكنولوجيا، على الأقل في السر”.
حضّ جيفري هينتون، الذي يوصف بأنه الأب الروحي للذكاء الاصطناعي، العام الماضي، الحكومات على التدخل لضمان ألا تسيطر الآلات على المجتمع. وكان هينتون قد تصدّر العناوين في مايو/أيار 2023، عندما أعلن استقالته من “غوغل” للتحدث بحرية أكبر عن أخطار الذكاء الاصطناعي، بعد فترة وجيزة من إطلاق برنامج الدردشة تشات جي بي تي الذي أسر العالم. وحذر هينتون من أن أخطار الذكاء الاصطناعي يجب أن تؤخذ على محمل الجد. وتابع: “أعتقد أنه من المهم أن يدرك الناس أن هذا ليس خيالاً علمياً أو مجرد إثارة للمخاوف”، مشدداً على “أنها مخاطرة حقيقية يجب أن نفكر فيها ملياً، وعلينا التوصل إلى معرفة كيفية التعامل معها مسبقاً”.
كما أعرب هينتون عن قلقه من أن يعمّق الذكاء الاصطناعي عدم المساواة، حيث المكاسب الهائلة من إنتاجيته ستذهب إلى الأثرياء وليس إلى العمال. وقال إن “الثروة لن تذهب إلى الأشخاص الذين يعملون، بل ستجعل الأثرياء أكثر ثراءً، وليس الفقراء، وهذا مجتمع بالغ السوء”. وأشار إلى خطر الأخبار المزيفة التي يمكن إنشاؤها بواسطة برامج الروبوتات على غرار “تشات جي بي تي”، معرباً عن أمله بأن تُوضع علامات على المحتوى الذي تولده برامج الذكاء الاصطناعي كما تضع البنوك المركزية علامات على العملات النقدية. ونبه إلى أنه “من الأهمية بمكان أن نحاول، على سبيل المثال، تمييز كل ما هو مزيف على أنه مزيف. لا أعرف ما إذا كان بإمكاننا فعل ذلك تقنياً أم لا؟”.
أما ماكس تيغمارك فكان واحداً من مجموعة خبراء دعت، في مارس/آذار 2023، إلى التوقف مؤقتاً عن تطوير أنظمة الذكاء الاصطناعي، لإتاحة الوقت للتأكد من سلامتها. وقد جرى التداول في هذه الرسالة المفتوحة الموقعة من أكثر من ألف شخص، بينهم إيلون ماسك والمؤسس المشارك لشركة آبل ستيف وزنياك، تزامناً مع إصدار نسخة GPT-4 من برنامج تشات جي بي تي الذي طورته شركة أوبن إيه آي بدعم من شركة مايكروسوفت. وشددت الرسالة على وجوب تطوير الذكاء الاصطناعي “إذا ما كنا واثقين من أنّ آثار هذا التطوير ستكون إيجابية، وأنها ستكون خاضعة للسيطرة والتحكم في أخطارها”، وهو ما رأوا أنه غير متوفر في الوقت الراهن، “فلا أحد يستطيع التنبؤ أو التحكم بشكل موثوق بهذا الذكاء الاصطناعي”.
————————
المصدر: العربي الجديد