شهدت منصة ChatGPT مؤخرًا ظاهرة مثيرة للجدل، حيث بدأ المستخدمون يلاحظون أن النظام يتعطل بشكل غريب عندما يُسأل عن بعض الأسماء، مثل “ديفيد ماير David Mayer”، ما أثار موجة من التساؤلات والشائعات حول سبب هذا السلوك الغريب.
الخطأ التقني الذي يثير الجدل
خلال عطلة نهاية الأسبوع الماضية، اكتشف العديد من مستخدمي ChatGPT أن المحادثات تتوقف أو يتعذر على النموذج إتمام الإجابة عند ذكر بعض الأسماء. على سبيل المثال، إذا طلبت من ChatGPT ذكر “ديفيد ماير David Mayer”، يواجه المستخدمون تعليقًا أو فشلًا في استجابة النموذج، مع ظهور رسالة تقول “أنا غير قادر على إنتاج رد.”
لكن المفاجأة كانت أن هذا السلوك لم يقتصر على اسم “ديفيد ماير”، بل شمل أسماء أخرى مثل “برايان هود”، “جوناثان تورلي”، “ديفيد فابر“، و”جيدو سكورزا”، مما أثار تساؤلات حول السبب وراء هذه الظاهرة.
من هم هؤلاء الأشخاص ولماذا “يخاف” ChatGPT من أسمائهم؟
التفسير الأكثر شيوعًا بين مستخدمي ChatGPT هو أن هذه الأسماء قد ترتبط بشخصيات عامة أو مشهورة قد تطلب حماية خاصة أو تقييدًا لمعلوماتهم عبر الإنترنت. يعتقد البعض أن هذه الأسماء مرتبطة بحالات قانونية أو أمنية تتطلب الحذر.
على سبيل المثال، برايان هود، عمدة أسترالي، كان قد اتهم زورًا بارتكاب جريمة، ما أثار أزمة قانونية لم يتمكن من التخلص منها حتى مع تدخل محاميه. أما جوناثان تورلي، محامي أمريكي، فقد تعرض لحادثة مكالمة وهمية خطيرة “swatting”، تم خلالها إرسال الشرطة إلى منزله في أواخر 2023.
التحليل التقني: هل هناك خلل في ChatGPT؟
من الناحية التقنية، يعتقد البعض أن هذه الظاهرة قد تكون ناتجة عن مشكلة برمجية في ChatGPT تتعلق بقوائم الأسماء التي تتطلب معالجة خاصة. قد تكون هذه الأسماء مشمولة بسياسات حق النسيان أو تعتبر حساسة في سياق آخر، وهو ما يعرض النظام لخطر الفشل عند محاولة معالجتها.
يشير بعض الخبراء إلى أن هذه القوائم قد تكون قد تعرضت لخلل تقني، مما تسبب في توقف النموذج عن العمل عند ذكر هذه الأسماء.
هل هناك علاقة بين الأسماء والشخصيات العامة؟
تُظهر بعض الأبحاث أن هذه الأسماء ترتبط بالفعل بشخصيات لها تفاعل كبير مع القوانين الخاصة بالخصوصية وحماية المعلومات.
على سبيل المثال، قد يكون بعض هذه الأشخاص قد طلبوا، بشكل قانوني أو من خلال أنظمة البيانات، حظر أو تقييد ظهور معلومات عنهم في محركات البحث أو النماذج الذكية مثل ChatGPT.
ماذا يقول الخبراء؟
في حين أن العديد من المستخدمين يعتقدون أن السبب وراء هذه الظاهرة هو خطأ تقني أو خلل في النظام، يُرجح الخبراء أن هذا سلوك متعمد لتطبيق بعض السياسات المتعلقة بالحماية والخصوصية. هذه الأنظمة تُدار وفقًا لإرشادات داخلية قد لا تكون دائمًا واضحة للمستخدمين.
الخلاصة:
بينما يظل السبب الدقيق وراء هذه المشكلة غير مؤكد، يبدو أن ما يحدث قد يكون مزيجًا من التحديات التقنية والسياسات المعمول بها لحماية الأفراد.
سواء كان ذلك نتيجة لخلل برمجي أو إجراءات أمان متعمدة، فإن هذه الحادثة تذكّرنا بأن الأنظمة الذكية مثل ChatGPT ليست معصومة من الأخطاء، وأنها تعتمد على تقنيات متطورة قد تتعرض للإشكالات بين الحين والآخر.