سؤال وجواب: هل النماذج اللغوية الكبيرة هي Magic 8 Ball الحديثة؟

يقول أنطون داهبورا، خبير الأمن السيبراني والذكاء الاصطناعي في جامعة جونز هوبكنز، إن الصحافة الشعبية والمستهلكين يسيرون كثيرًا في ChatGPT.
ووفقًا له، فإن عدم موثوقية مثل هذه النماذج اللغوية الكبيرة، أو LLMs، وإنتاجها لمحتوى ملفق ومتحيز يشكل تهديدًا حقيقيًا ومتزايدًا للمجتمع.
يقول داهبورا، مدير معهد أمن المعلومات بجامعة جونز هوبكنز والمدير المشارك لمعهد الاستقلالية المؤكدة: “تجني الصناعة الكثير من الأموال من المنتجات التي يعرفون أنها تُستخدم بطرق خاطئة وعلى نطاق واسع”.
“هلوسات ChatGPT [ميل النظام في بعض الأحيان إلى إنشاء محتوى لا معنى له] يمكن أن تسمى” حالات فشل “إذا حدثت في منتجات استهلاكية أخرى – على سبيل المثال، إذا كان مسرّع سيارتي يعاني من” هلوسة “ووقع بي في جدار من الطوب.”
يقول دهبورة إن البيانات الأفضل، ومساءلة الشركات، وتثقيف المستخدمين حول ماهية الذكاء الاصطناعي وما هي حدوده يمكن أن تساعد في التخفيف من المخاطر، “لكنهم لن يحلوا المشكلة تمامًا ما لم تكن المشكلة بسيطة جدًا لدرجة أن الذكاء الاصطناعي لم يكن يجب أن يكون كذلك.
اجتمع The Hub مع Dahbura لمناقشة أسباب عدم اليقين في نماذج اللغة الكبيرة، والدور الذي يعتقد أن الصناعة والحكومة يجب أن تلعبه في تثقيف المستهلكين حول الذكاء الاصطناعي ومخاطره، والتهديدات التي قد تشكلها هذه التقنيات الجديدة على المجتمع.
لقد أشرت إلى ChatGPT ونماذج اللغات الكبيرة الأخرى باسم “الإصدار الحديث من Magic 8 Ball”. يشرح.
الذكاء الاصطناعي هو فئة واسعة من الأساليب لحل المشكلات الصعبة التي ليس لها حلول سهلة أو “قائمة على القواعد”.
يُعد منظم الحرارة إجابة لمشكلة بسيطة: عندما ترتفع درجة الحرارة عن عتبة معينة، فإنها تقوم بتشغيل تكييف الهواء، وعندما تنخفض إلى ما دون هذا الحد، فإنها تشعل الحرارة.
لكن في بعض الأحيان لا تحتوي الأسئلة على إجابات واضحة يمكن للقواعد البسيطة وحدها حلها.
على سبيل المثال، عند تدريب الذكاء الاصطناعي على التمييز بين صور الكلاب والقطط، فإن العوامل التي يستخدمها نظام الذكاء الاصطناعي لتصنيفه معقدة للغاية ونادرًا ما تكون مفهومة جيدًا.
لذلك، من الصعب أن تكون قادرًا على تقديم ضمانات حول كيفية استجابة النظام لصورة كلب أو قطة لم يتم تدريبها عليها، ناهيك عن صورة برتقالية. قد لا تستجيب بشكل متوقع للصورة التي تم تدريبها عليها!
لقد قمت بصياغة هذه الخاصية المتأصلة وغير المنفصلة لأنظمة الذكاء الاصطناعي على أنها “مبدأ عدم اليقين في الذكاء الاصطناعي” لأن تعقيد مشاكل الذكاء الاصطناعي يعني أن اليقين والذكاء الاصطناعي لا يمكن أن يتعايشا إلا إذا كان الحل بسيطًا لدرجة أنه لا يتطلب ذكاءً اصطناعيًا أو قائمًا على القواعد حواجز حماية مصممة لتلطيف الطبيعة غير المتوقعة لنظام الذكاء الاصطناعي.
ما أقوله هو أنه من غير الممكن تدريب هذه التقنيات في كل سيناريو، لذلك لا يمكنك التنبؤ بدقة بنتيجة استخدامها في كل مرة. الأمر نفسه مع Magic 8 Ball: قد لا تكون الإجابة هي ما تتوقع الحصول عليه.
أنت تصف الشركات بأنها غير مسؤولة لفشلها في تحذير الناس من قدرة LLM على “الهلوسة”. هل يمكنك مشاركة مثال على ما تعنيه بالهلوسة؟
تشير الهلوسة إلى الاستجابات التي تحتوي على معلومات غير صحيحة أو خيالية.
هناك مجموعة من الهلوسة التي قد تؤثر على التقنيات، بما في ذلك بعض الهلوسة غير الضارة نسبيًا، مثل LLM التي تخبر مجموعة من طلاب المرحلة الابتدائية أن هناك 13 كوكبًا في النظام الشمسي.
من السهل التحقق من هذه المعلومات باستخدام بحث سريع في Google، لكن التفاصيل أو العبارات الأخرى الأكثر غموضًا التي تم إنشاؤها بواسطة ChatGPT قد يكون لها تأثيرات ضارة أكثر.
أحد الأمثلة على ذلك هو استخدام الذكاء الاصطناعي للكشف عن السرطان بناءً على الأشعة السينية أو عمليات المسح. قد تكتشف الهلوسة وجود سرطان غير موجود، أو قد لا تكتشف ببساطة السرطان الذي يظهر في الفحص. من الواضح أن أيًا من هذه السيناريوين قد يكون ضارًا.
سواء كنت تطرح سؤالاً على LLM أو تستخدمه لتفسير صورة، أو أنها مدمجة في سيارة تتدافع فيها على الطريق السريع بسرعة 65 ميلاً في الساعة، فأنت تقدمها مع المدخلات وتولد النواتج.
أحيانًا يكون هذا على ما يرام، لكن في بعض الأحيان لا يكون كذلك. عندما تلعب بلعبة Magic 8 Ball، فإن الإجابة لا تهم. لكن في بعض السيناريوهات في الحياة الواقعية، فإن هذا يحدث كثيرًا.
أخبرنا المزيد عن توصيتك بأن الشركات والحكومة الفيدرالية يجب أن تجعل المستخدمين والمستهلكين على دراية بما يسمى بـ Magic 8 Ball في LLMs.
يحتاج المستهلكون إلى أن يكونوا على دراية كاملة بالقدرات والمخاطر المرتبطة بـ ChatGPT و LLMs الأخرى.
نحن نتحدث عن قضايا خطيرة مثل شركات السيارات المستقلة التي تستخدم الطرق العامة كأرضيات اختبار معملية لهذه التقنيات. يجب أن يدرك السائقون أن هذه المركبات تشغل نفس الطرق التي تسير عليها.
أعتقد أن هناك أيضًا توقعات بأن هذه الأشياء تتعطل، ولكن يتم إصلاحها وبمجرد حدوث ذلك، ستختفي كل هذه المشكلات.
ولكن ستكون هناك دائما مشاكل. لن تكون الهلوسة شيئًا من الماضي في أي وقت قريب.
ومع ذلك، ستتحسن المشكلات المتعلقة بـ ChatGPT والنماذج الأخرى المماثلة لأن الشركات والمؤسسات التي تطور هذه التقنيات تبني حواجز حماية بسرعة. ومع ذلك، يجب على المستخدمين أن يظلوا متشككين.
سيكون تسخير الذكاء الاصطناعي أمرًا صعبًا، ولا نريد أن تسوء الأمور قبل أن تتحسن.
المصدر: techxplore
قد يهمك: