مع تقدم تقنية الذكاء الاصطناعي بسرعة، يزداد عدد المطورين الذين يستخدمون أدوات الذكاء الاصطناعي مثل ChatGPT لكتابة الأكواد. وعلى الرغم من أن مساعدي البرمجة المستندين إلى الذكاء الاصطناعي يجعلون البرمجة أكثر كفاءة، إلا أن خطر هجمات تلويث البيانات (Data Poisoning) المتزايد داخل هذه الأكواد أثار مخاوف أمنية خطيرة.

تلويث البيانات هو أسلوب هجوم يتم فيه التلاعب بالبيانات التي يتعلم منها الذكاء الاصطناعي لتشويه قراراته أو توجيهها نحو نتائج خبيثة. وإذا تعلمت أدوات البرمجة بالذكاء الاصطناعي من أكواد تم التلاعب بها عمدًا، فقد ينتج عنها أكواد تحتوي على ثغرات أمنية أو أبواب خلفية. وقد يؤدي ذلك إلى قيام المطورين باستخدام الأكواد التي يقترحها الذكاء الاصطناعي دون إدراك المخاطر الكامنة فيها.
بمعنى آخر، مع تزايد استخدام الذكاء الاصطناعي، يقوم العديد من المطورين بدمج الأكواد التي ينشئها الذكاء الاصطناعي دون التحقق من موثوقيتها. وإذا كانت أدوات مثل ChatGPT أو Copilot قد تم تدريبها على بيانات ضارة أو قام المهاجمون بإدخال أنماط كود معينة في نماذج الذكاء الاصطناعي، فقد يقوم المطورون، دون قصد، بإدخال ثغرات أمنية في خدماتهم. وهذا يخلق تهديدًا جديدًا يمكن للمخترقين استغلاله لشن هجمات إلكترونية واسعة النطاق.
ومع انتشار استخدام الأكواد مفتوحة المصدر، قد يستغل المهاجمون ذلك من خلال نشر عينات أكواد تم التلاعب بها عمدًا أو إدخال أكواد خبيثة في المكتبات مفتوحة المصدر، مما يجعل الذكاء الاصطناعي يتعلم منها. وأظهرت الدراسات الحديثة أن أنظمة إنشاء الأكواد المستندة إلى الذكاء الاصطناعي تكون أكثر عرضة لإنتاج أكواد تحتوي على ثغرات أمنية عند تدريبها على بيانات غير موثوقة. وهذا يؤكد الحاجة إلى التحقق من سلامة الأكواد التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
لذلك، يجب على المطورين التحقق من صحة الأكواد التي يوصي بها الذكاء الاصطناعي قبل استخدامها. فمجرد التأكد من صحة وظائف الكود ليس كافيًا، بل يجب أيضًا إجراء تحليل أمني للتحقق من خلوه من أي ثغرات أمنية. كما أن استخدام مصادر بيانات موثوقة ومستودعات أكواد معتمدة، بالإضافة إلى مراجعة بيانات تدريب أدوات البرمجة بالذكاء الاصطناعي بشكل دوري، أمر ضروري لتقليل المخاطر الأمنية.
ومع استمرار توسع استخدام الذكاء الاصطناعي، ستصبح التهديدات مثل تلويث البيانات أكثر خطورة. لذلك، يجب على جميع المطورين الذين يستخدمون أدوات البرمجة المستندة إلى الذكاء الاصطناعي النظر في المخاطر الأمنية إلى جانب عامل الراحة. وفي عصر أصبحت فيه البرمجة المعتمدة على الذكاء الاصطناعي أمرًا شائعًا، يصبح إنشاء نظام آمن للتحقق من أكواد الذكاء الاصطناعي أمرًا ضروريًا، كما يجب ترسيخ ثقافة تطوير تضع الأمان في المقدمة.