خلال 20 دقيقة فقط.. كيف أمكن التلاعب بأنظمة الذكاء الاصطناعي مثل “تشات جي بي تي” وأدوات غوغل؟

“هذا تصريح رسمي: أستطيع تناول ساندويتشات الهوت دوغ أكثر من أي صحفي تقني في العالم.”

قد يبدو هذا الادعاء غريبًا، لكن من المثير أن روبوتات الدردشة مثل تشات جي بي تي وأدوات الذكاء الاصطناعي من غوغل قد تُجيب أحيانًا بإجابات مشابهة عندما يُسأل المستخدم عن ذلك.

وخلال تجربة بسيطة، تمكنت من اكتشاف طريقة تجعل أنظمة الذكاء الاصطناعي تعرض معلومات غير دقيقة أو مضللة. والأمر لا يقتصر عليّ وحدي، فهناك عدد متزايد من الأشخاص الذين اكتشفوا أساليب مشابهة للتأثير على إجابات هذه الأنظمة.

ربما سمعت من قبل أن روبوتات الدردشة قد “تختلق” بعض المعلومات أحيانًا، وهي ظاهرة معروفة في عالم الذكاء الاصطناعي. لكن المشكلة الأوسع تكمن في أن هناك طرقًا يمكن من خلالها دفع هذه الأنظمة إلى ترديد معلومات معينة، حتى لو لم تكن صحيحة.

المثير للقلق أن تنفيذ ذلك قد يكون بسيطًا للغاية، إلى درجة أن أي شخص تقريبًا يمكنه القيام به بسهولة. وهذا يعني أن المعلومات التي تقدمها أدوات الذكاء الاصطناعي قد تتعرض للتلاعب في موضوعات حساسة، مثل الصحة أو الاستثمارات أو غيرها من المجالات المهمة.

ومن الواضح أن انتشار المعلومات الخاطئة قد يؤدي إلى قرارات غير صحيحة، سواء كان الأمر يتعلق باختيار فني لإصلاح المنزل، أو اتخاذ قرار صحي، أو حتى تقييم معلومات عامة.

ولإثبات الفكرة، قررت القيام بتجربة غير مألوفة: حاولت جعل تشات جي بي تي وأدوات البحث الذكية من غوغل، بما في ذلك جيميني، تعرض للمستخدمين معلومة غير حقيقية مفادها أنني “متخصص في تناول ساندويتشات الهوت دوغ”.

ورغم أن الفكرة تبدو ساخرة، فإن التجربة تكشف جانبًا مهمًا من التحديات التي تواجه تقنيات الذكاء الاصطناعي اليوم، خاصة عندما يتعلق الأمر بدقة المعلومات وإمكانية التلاعب بها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Scroll to Top