في خطوة من غير المرجح أن تفاجئ الكثيرين، تستهدف مجموعة خصوصية أوروبية X (تويتر سابقًا) لاستخدامها بيانات المستخدم لتدريب روبوت الدردشة الذي يعمل بالذكاء الاصطناعي، Grok.
ما هو جروك؟
Grok هو روبوت دردشة ذو نموذج لغوي كبير (LLM) يمكنه إنشاء نص وإجراء محادثات مع المستخدمين. وهي تبرز من خلال الوصول إلى المعلومات في الوقت الفعلي من خلال X والإجابة على الأسئلة التي لا تستطيع روبوتات الدردشة الأخرى التعامل معها عادةً. ومع ذلك، أثار تدريب جروك الجدل.
شكوى اللائحة العامة لحماية البيانات
تزعم مجموعة الخصوصية الأوروبية NOYB (None Of Your Business) أن X استخدمت بيانات شخصية من أكثر من 60 مليون مستخدم في الاتحاد الأوروبي لتدريب Grok دون موافقتهم. هذا ينتهك اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR)، والتي تنظم خصوصية البيانات وحمايتها.
ما الخطأ الذي حدث؟
عالجت لجنة حماية البيانات الأيرلندية (DPC) المشكلة سابقًا مع X، لكن NOYB تعتقد أن إجراءاتها لم تذهب بعيدًا بما فيه الكفاية. يجادلون بأنه كان يجب على X طلب موافقة المستخدم قبل استخدام البيانات لتطوير الذكاء الاصطناعي. بدلاً من ذلك، أخذ X البيانات أولاً ثم نفذ خيار «إلغاء الاشتراك» لاحقًا. هذا النقص في الشفافية هو انتهاك كبير للناتج المحلي الإجمالي.
اللائحة العامة لحماية البيانات وموافقة المستخدم
توفر اللائحة العامة لحماية البيانات (GDPR) مسارًا واضحًا للشركات التي تستخدم البيانات الشخصية للذكاء الاصطناعي: الحصول على موافقة المستخدم. تجاوز X هذه الخطوة الحاسمة، مما قد يعرض خصوصية المستخدم للخطر.
الدروس المستفادة
أظهرت حالات مماثلة تتعلق باستخدام Facebook (الآن Meta) لبيانات المستخدم أن المطالبة بـ «مصلحة مشروعة» ليست كافية لتجاوز اللائحة العامة لحماية البيانات (GDPR).
علاوة على ذلك، فإن «الحق في النسيان» المنصوص عليه في اللائحة العامة لحماية البيانات يخلق صعوبات لأنظمة الذكاء الاصطناعي التي تكافح من أجل محو البيانات الشخصية بمجرد استيعابها. هذا يضيف إلى المخاوف المحيطة باستخدام البيانات غير المقيدة في تطوير الذكاء الاصطناعي.