ماذا لو أصبحت جميع البيانات كتابًا دراسيًا للذكاء الاصطناعي؟

نستهلك يوميًا عددًا لا يحصى من المحتويات—مقالات إخبارية، منشورات مدونات، روايات الأكثر مبيعًا، مقاطع فيديو على يوتيوب، وحتى الصور التي نقوم بتحميلها على وسائل التواصل الاجتماعي. ولكن ماذا لو تم استخدام كل هذا المحتوى كبيانات تدريب للذكاء الاصطناعي دون إذن منشئيه؟

مؤخرًا، انتشر خبر أن شركة ميتا قامت بتدريب ذكائها الاصطناعي باستخدام 81.7 تيرابايت من البيانات. وبالنظر إلى أن حجم الكتاب الإلكتروني حوالي 1 ميغابايت، فإن هذا يعادل تقريبًا 81.7 مليون كتاب—وهو ما يعادل تقريبًا الحجم الإجمالي لمعظم المكتبات الرقمية في العالم. وبينما تحتاج نماذج الذكاء الاصطناعي إلى كميات هائلة من البيانات للتطور، فإن جمع هذه البيانات بشكل غير مقيد قد يشمل معلومات غير آمنة.

(الصورة = Pixabay)

تدعي شركات الذكاء الاصطناعي أن بيانات التدريب الخاصة بها تتكون من معلومات متاحة للجمهور، ولكن مجرد وجود البيانات على الإنترنت لا يعني أنها آمنة. العديد من المواقع الإلكترونية والمجتمعات عبر الإنترنت تحظر الزحف إلى بياناتها عبر شروط الخدمة الخاصة بها، ومع ذلك يتم تجاهل هذه القيود غالبًا من أجل تدريب الذكاء الاصطناعي. في الواقع، كانت هناك تقارير تفيد بأن بعض نماذج الذكاء الاصطناعي قامت بجمع بيانات من منتديات مغلقة وأنظمة مشاركة المستندات الداخلية. وهذا يثير مخاوف من أن التقارير الداخلية للشركات، والأوراق البحثية، ورسائل البريد الإلكتروني الخاصة، وحتى المنشورات المقيدة على وسائل التواصل الاجتماعي قد تم جمعها للتدريب. هذه ليست مجرد مسألة حقوق نشر، بل إنها خطر أمني خطير.

لقد كانت هناك بالفعل العديد من الحالات التي شكل فيها الذكاء الاصطناعي تهديدًا أمنيًا. في عام 2023، استخدم موظفو شركة سامسونج للإلكترونيات ChatGPT في العمل، حيث قاموا بإدخال كود مصدر داخلي. وأثارت هذه الحادثة مخاوف من إمكانية استخدام هذه البيانات في تدريب الذكاء الاصطناعي، مما دفع سامسونج إلى حظر ChatGPT داخل الشركة. بالإضافة إلى ذلك، شهدت OpenAI في عام 2023 خطأ في ChatGPT أدى إلى كشف المحادثات بين المستخدمين. ويحذر بعض الباحثين من أن نماذج الذكاء الاصطناعي قد تحتفظ بمدخلات المستخدمين ويمكنها إعادة بناء بيانات حساسة بناءً عليها. كما أن وزارة العدل الأمريكية تحقق فيما إذا كانت نماذج الذكاء الاصطناعي قد تدربت على وثائق حكومية حساسة، وتدرس تشريعات جديدة للحد من نطاق تدريب الذكاء الاصطناعي.

(الصورة = Pixabay)

البيانات التي يتعلمها الذكاء الاصطناعي لا يتم تخزينها فقط—بل يمكن إساءة استخدامها بطرق جديدة. على سبيل المثال، إذا تم تدريب الذكاء الاصطناعي على بيانات البريد الإلكتروني، فيمكنه تقليد أنماط البريد الإلكتروني الخاصة بالشركات لإنشاء رسائل تصيد احتيالي (phishing) مقنعة للغاية، مما يجعل الهجمات أكثر إقناعًا من أي وقت مضى.

علاوة على ذلك، إذا تعلم الذكاء الاصطناعي بيانات الاتصالات الداخلية، فيمكنه تحليل هيكل المؤسسة وتدفق العمل، مما يزيد من خطر الهجمات السيبرانية المستهدفة. والأكثر إثارة للقلق، أن الذكاء الاصطناعي قد يعمل على تطوير تقنيات الاختراق الآلي من خلال دراسة الثغرات الأمنية، مما قد يخلق تهديدات جديدة يصعب على الحلول الأمنية التقليدية اكتشافها.

(الصورة = Eddy&Vortex)

لمواجهة هذه المشكلات، تناقش الدول في جميع أنحاء العالم لوائح أقوى لأمان بيانات تدريب الذكاء الاصطناعي. يعمل الاتحاد الأوروبي (EU) على تقديم لوائح صارمة من خلال قانون الذكاء الاصطناعي (AI Act) لمنع الذكاء الاصطناعي من التعلم على البيانات الشخصية دون موافقة. ويشمل ذلك فرض عقوبات قانونية إذا تدربت نماذج الذكاء الاصطناعي على بيانات غير عامة. كما تحقق لجنة التجارة الفيدرالية الأمريكية (FTC) في نماذج الذكاء الاصطناعي لاحتمال انتهاكها لقوانين حقوق النشر والخصوصية، وتطالب شركات الذكاء الاصطناعي الرئيسية بالشفافية في مصادر بيانات التدريب.

تقوم كوريا الجنوبية واليابان أيضًا بمراجعة التعريفات القانونية لبيانات تدريب الذكاء الاصطناعي، بهدف إلزام الشركات بالكشف عن مصادر بيانات التدريب بشكل شفاف. ومع ذلك، لا يزال تحقيق التوازن بين نمو الصناعة والتنظيم يمثل تحديًا كبيرًا.

سيواصل الذكاء الاصطناعي التطور. ومع ذلك، فإن مناقشات مدى السماح بتدريب الذكاء الاصطناعي أمر ضروري. إذا تم تقييد بيانات تدريب الذكاء الاصطناعي، فقد يتباطأ التقدم التكنولوجي. وعلى العكس من ذلك، إذا تم تخفيف اللوائح، فقد تواجه الخصوصية وأمن الشركات تهديدات خطيرة. نحن الآن أمام قرار حاسم.

“هل يجب أن نفتح البيانات من أجل تقدم الذكاء الاصطناعي؟” أم “هل نحتاج إلى لوائح صارمة لحماية الأمن والخصوصية؟”




error: Content is protected !!