البيانات النكدية والذكاء الاصطناعي

في الحلقة رقم 294 من فنجان، قال الاستاذ عمر جملة استقرت في راسي.

كان يتكلم عن دقة الذكاء الاصطناعي وكيف لو صار الذكاء الاصطناعي طبيب حيكون نسبة الغلط في العمليات ضئيلة لأنه الطبيب البشري ممكن يجي يوم متنكد ويسوي غلط، بينما الذكاء الاصطناعي “محدش ينكد عليه”.

سألت نفسي “هل من الممكن التنكيد على الذكاء الاصطناعي ليرتكب خطئًا في عملية؟”

سؤالي يفترض أن للذكاء الاصطناعي “مزاجًا” يمكن تنكيده، كما أنه يعطي صبغة إنسانية للذكاء الاصطناعي وهو خطأ نقع فيه بسبب استخدام مصطلحات بشرية لوصف التصرفات من أجل تقريب الفهم، ماعلينا…خلونا نرجع للنكد وماهيته، ولنستخدم الرجل المتزوج كمثال.

يحدث النكد حين يكون الرجل، الطيب، المسكين، ذو القلب الوسيع، مرتاحًا فوق كنبته يتفرج مسلسلًا أو يقرأ كتابًا، ثم تأتي المرأة و”تنكد عليه” بطلبات غريبة “الثلاجة فاضية”، أو “خلينا نمشي الأطفال” ولو كنت مستجدًا في الزواج فستمطرك بأسئلة غريبة، “تحبني؟” “ليه وجهك مقلوب!”

بغض النظر عن مسبب النكد (وهو في هذه الحالة من حزب النساء) فأستطيع أن أقول وحسب خلفيتي الحاسوبية (الي ملهاش أي لزمة) إن النكد هو متغير يؤثر في مراكز التفكير ويتسبب في انحراف في ردات الفعل تؤدي إلى ارتكاب غلطة، وفي حالة الرجل، الشهم، الطيب، ذو الوجه البشوش، فإن ردة فعله إما أن تجعله ينام فوق الكنبة، أو يجري وراء أطفاله في الملاهي (مقلوب الوجه).

لا أريد أن يؤخذ كلامي على أنه تجنٍ على المرأة، حاشا وكلا، هو مجرد فرضية علمية لا أكثر…خلونا نرجع للذكاء الاصطناعي والنكد لألا أنام فوق الكنبة (والكنبة للرجالة)…

يعتمد الذكاء الاصطناعي في فهمه على التدرب على كمية كبيرة من البيانات، وحتى الآن لا نستطيع أن نفهم ماذا يدور في غياهب العقل الالكتروني وكيف يصل إلى قراراته، لكن أتصور أن إضافة بيانات مشوهة (الي هي النكد) فقد تؤدي في حالة ذكاء اصطناعي طبي لارتكاب خطأ قاتل في عملية طبية.

أيضًا لعل الذكاء سيواجه سيناريو غريب، أو حالة طبية لم يسبق له التدرب عليها، وهنا تأتي المصيبة، فبينما قد يتوقف الطبيب البشري ويشاور ويسأل ويفكر، قليلًا، قد يتخذ الذكاء الاصطناعي قرارًا كارثيًا، وحين يفتح تحقيق في الموضوع يتضح أن السبب هو البيانات النكدية التي أثرت على قراره.

وماسبق يندرج تحت باب النكد اللامقصود.

فكما تتطور التقنية تتطور طرق الاختراق، وهناك عدة طرق للهجوم على الذكاء الاصطناعي، منها تسميم البيانات أو دس بيانات تتسبب في إرباك أو تشويش الذكاء الاصطناعي، فعلى سبيل المثال يستطيع المهاجم أن يغير بكسلات بسيطة غير ملحوظة للبشر لكنها تتسبب في إرباك الذكاء الاصطناعي ومنعه من التعرف على صور الأشعة بشكل صحيح مثلًا مما قد يؤدي إلى تشخيصات خاطئة. أو دفعه لتشخيصك بمرض تؤدي  أدويته إلى قتلك ببطئ كنوع من الاغتيال الذكي!

ربي يحفظ الجميع.

إضافة أخيرة، مش ملاحظين إن البيانات مؤنث أيضًا؟!

اللااخلاقية في جمع بيانات تدريب الذكاء الاصطناعي

مع إطلاق مسك لشركة X.AI المتخصصة في بناء أنظمة الذكاء الاصطناعي فسوف يستفيد مسك من تويتر ليكون مصدر بيانات لتدريب أنظمة X.AI.

لا أمانع من استخدام بياناتي في تويتر لتقديم تجربة أفضل، لكن تغريداتي ستتحول الآن لبيانات تدريب X.ai التي ستخرج لنا بعد سنوات بمنتج سحري مدفوع، وفي حين كانت تستخدم البيانات في السابق من أجل الإعلانات وكنا نحارب الإزعاج بتطبيقات الحجب، فقد دخلنا في مرحلة جديدة تستخدم فيها البيانات من الخدمة أ لصناعة منتجات الشركة ب ومن ثم الاستفادة منه في حلب المزيد من الأرباح من المستخدمين.

نقمي هنا يأتي من منطلق أخلاقي بحت.

تخيل يا راعاك الله أن صاحب البقالة يسرب إلى الميكانيكي شكاويك من سيارتك، ثم يضيف إليها تقييمه الشخصي لثروتك بناءًا على مشترياتك. ستساعد هذه المعلومات الميكانيكي على الاستفادة حين تفاصله في السعر، سيصلح سيارتك لكن لديه أفضلية أخرى تساعده على رفع السعر قليلًا بفضل معلومات صاحب البقالة.

وأشك أنك ستشتري من صاحب البقالة لو علمت بما حصل، لكن وقد يكون عذر صاحب البقالة أنها سياسة الخصوصية!

مسك لن يكون أول أو آخر من يستخدم بيانات من شركة لتطوير منتجات شركة أخرى، فجوجل تعصر وتحلب وتفتت بياناتنا بشكل مستمر، وفيسبوك ليست بأحسن منهم، وبدل أن يخبروك مباشرة في وجهك يكتفون بتحديث سياسية الخصوصية وما عليك إلا الموافقة وهي موافقة مفروغ منها.

يجب أن نحاول ردع اللا أخلاقية التي استشرت عبر السياسات المحلية. يجب منع استخدام بيانات المستخدمين في أغراض تدريب منتجات شقيقة كما في حالة تويتر و X.ai، وحتى جوجل وبقية خدماتها.

فحين استخدم البريد الإلكتروني يجب أن أطمئن أن بياناتي لن تستخدم من أجل تطوير ذكاء اصطناعي يرقص السامبا، وفي حالة الرغبة في الاستفادة من بياناتي لتطوير ميزات خارج تخصص الخدمة التي استخدمها يجب أن أوافق، أما الاكتفاء بتحديث سياسات الخصوصية فهو منفذ قانوني لا أخلاقي،.

طوال سنوات استخدامي للإنترنت التي تزيد عن العقدين لم أقرأ سياسة خصوصية واحدة، ولا أظن أنني مؤهل قانونيًا لفهم 90٪ مما يذكر فيها. ولكن طلباتي بسيطة، مالم أوافق وأبصم وأوقع – رقميًا – على استخدام بياناتي في تدريب منتجات لشركات أو خدمات شقيقة للخدمة التي استخدمها فافترض أنني غير موافق! لكن حجتهم الدائمة هو أن كل هذه الخدمات “مرتبطة” وإذا لم توافق فعليك التوقف عن استخدامها جمعاء، وهي الحفرة التي وقعنا فيها جميعًا.