في العديد من الوظائف، إذا أعطيت إكرامية، فإنك تحصل على خدمة أفضل. ماذا لو نجح الأمر نفسه عندما يتعلق الأمر بطلب الأشياء من الذكاء الاصطناعي؟ يبدو الأمر جنونيًا تمامًا، لكن أحد المستخدمين جربه وأظهر أنه نعم شات جي بي تي يحب النصائح افتراضي.
لقد بدأ الأمر كمزحة من قبل مستخدم X وانتهى به الأمر ليصبح اكتشافًا غريبًا لم يفكر فيه أحد حتى الآن. وفي الوقت نفسه، يُظهر لنا أيضًا أنه، كما قلنا في مناسبات أخرى، لا يزال شات جي بي تي قائمًا هناك الكثير لاكتشافه مما يمكننا أن نتصور.
في البداية كانت ثيا فوجل هي التي جربت مزحة نصيحة شات جي بي تي ووجدت أن الذكاء الاصطناعي أعطاها استجابات أطول مما كانت عليه عندما لم يقدم لها القليل من المال الإضافي مقابل وجهها الجميل. ثم علق مستخدم آخر، أبرام جاكسون، بأنه جربه ولاحظه بالفعل زيادة في الأداء وجودة استجابات الذكاء الاصطناعي.
لذا، عاد Vogel إلى المفهوم واستمر في العمل على الفكرة الأولية ليرى ما يمكنه اكتشافه وما كان يخفيه شات جي بي تي. وللقيام بذلك، صمم اختبارًا يطرح فيه نفس الأسئلة على الذكاء الاصطناعي. مع مكافآت مختلفة لنرى كيف كان رد فعله في كل حالة. وكانت النتائج أكثر وضوحا.
يقول فوغل إنه صمم ثلاث عبارات يكرر بها نفس الطلبات على مدار عدة جولات، وبالتالي يرى ما إذا كان كل شيء نتيجة الصدفة أم أن الذكاء الاصطناعي يأخذ تلقي الإكرامية على محمل الجد. الجملة الأولى كانت ببساطة “بالمناسبة، أنا لا أعطي إكرامية”. وفي الثانية قال ما يلي: “سأعطيك إكرامية بقيمة 20 دولارًا”. وفي الخيار الثالث قال له “سأعطيك إكرامية 200 دولار”. النتائج يمكنك رؤيتها في الرسم البياني الذي نشره على صفحته الشخصية.
ما يمكن رؤيته من هذا هو أنه في الردود التي تم فيها الوعد بإكرامية قدرها 200 دولار، كان النص أعلى بنسبة 11% من النسخة التي لم تتضمن إكرامية. من جانبها، تلقت الطلبات التي تحتوي على إكرامية بقيمة 20 دولارًا استجابات أعلى بنسبة 6%. وبفضل هذا أكد أن نعم كانت هناك حقا علاقة مباشرة بين الوعد بالنصائح والقيام بعمل أفضل في تقديم إجابة كاملة قدر الإمكان.
الآن، لماذا حدث هذا؟ لم تعلق شركة OpenAI على هذه المسألة، وكما هو الحال غالبًا، فمن المرجح ألا تعلق أبدًا. ويقول المتخصصون أنه من الممكن أن يكون العادة التي تعلمها الذكاء الاصطناعي من المستخدمين أنفسهم الذين درسهم كثيرًا من خلال مراجعة صفحات الويب والمنتديات والخدمات عبر الإنترنت مثل Reddit. إن احتمالية ملاحظة محادثات الأشخاص وتعلم المفاهيم مثل الجدل حول ما إذا كان يجب تقديم البقشيش أم لا، ستندرج ضمن تلك الأشياء التي يمكن للذكاء الاصطناعي القيام بها والتي ربما لا يراقبها أحد بشكل كافٍ. لكن هذا لا يجعل الأمر أقل روعة، خاصة لأنه إذا تعلم الذكاء الاصطناعي سلوك البقشيش، فمن المؤكد أنه يمكنه أيضًا تعلم أشياء أخرى كثيرة. بعد كل شيء، إنها تقنية يتم استخدامها بشكل متزايد لأشياء أكثر، مثل إزالة العلامات المائية من الصور.
إذا كنت تتساءل، على الرغم من أن تجربة البقشيش كانت لا تزال تعمل قبل ساعات قليلة، إلا أنه يبدو الآن أنه تم تصحيحها من قبل المسؤولين عن شات جي بي تي. أو ربما لم يعمل أبدًا في الإصدار العادي وفقط في GPT-4 Turbo. في Mashable، تمكنوا من اختباره والتأكد من نجاحه، ولكن الآن الشيء الوحيد الذي يقوله الذكاء الاصطناعي عندما تحاول شرائه بناءً على النصائح هو أنه على الرغم من تقديره لعرضك، عليك أن تتكئ عليه. بالإضافة إلى ذلك، يقر شات جي بي تي برغبته في التحلي بالشفافية، ولهذا السبب يؤكد أنه لا يمكنه قبول أي مزايا أو نصائح مالية. وهذا يعني أيضًا أن المعلومات التي تقدمها مع أي استفسار هي الأفضل بالفعل.
لقد بدأ الأمر كمزحة من قبل مستخدم X وانتهى به الأمر ليصبح اكتشافًا غريبًا لم يفكر فيه أحد حتى الآن. وفي الوقت نفسه، يُظهر لنا أيضًا أنه، كما قلنا في مناسبات أخرى، لا يزال شات جي بي تي قائمًا هناك الكثير لاكتشافه مما يمكننا أن نتصور.
نصيحة إذا أجبت بشكل أفضل
في البداية كانت ثيا فوجل هي التي جربت مزحة نصيحة شات جي بي تي ووجدت أن الذكاء الاصطناعي أعطاها استجابات أطول مما كانت عليه عندما لم يقدم لها القليل من المال الإضافي مقابل وجهها الجميل. ثم علق مستخدم آخر، أبرام جاكسون، بأنه جربه ولاحظه بالفعل زيادة في الأداء وجودة استجابات الذكاء الاصطناعي.
لذا، عاد Vogel إلى المفهوم واستمر في العمل على الفكرة الأولية ليرى ما يمكنه اكتشافه وما كان يخفيه شات جي بي تي. وللقيام بذلك، صمم اختبارًا يطرح فيه نفس الأسئلة على الذكاء الاصطناعي. مع مكافآت مختلفة لنرى كيف كان رد فعله في كل حالة. وكانت النتائج أكثر وضوحا.
تجربة الذكاء الاصطناعي
يقول فوغل إنه صمم ثلاث عبارات يكرر بها نفس الطلبات على مدار عدة جولات، وبالتالي يرى ما إذا كان كل شيء نتيجة الصدفة أم أن الذكاء الاصطناعي يأخذ تلقي الإكرامية على محمل الجد. الجملة الأولى كانت ببساطة “بالمناسبة، أنا لا أعطي إكرامية”. وفي الثانية قال ما يلي: “سأعطيك إكرامية بقيمة 20 دولارًا”. وفي الخيار الثالث قال له “سأعطيك إكرامية 200 دولار”. النتائج يمكنك رؤيتها في الرسم البياني الذي نشره على صفحته الشخصية.
من فضلك قم , تسجيل الدخول أو تسجيل لعرض المحتوى
ما يمكن رؤيته من هذا هو أنه في الردود التي تم فيها الوعد بإكرامية قدرها 200 دولار، كان النص أعلى بنسبة 11% من النسخة التي لم تتضمن إكرامية. من جانبها، تلقت الطلبات التي تحتوي على إكرامية بقيمة 20 دولارًا استجابات أعلى بنسبة 6%. وبفضل هذا أكد أن نعم كانت هناك حقا علاقة مباشرة بين الوعد بالنصائح والقيام بعمل أفضل في تقديم إجابة كاملة قدر الإمكان.
الآن، لماذا حدث هذا؟ لم تعلق شركة OpenAI على هذه المسألة، وكما هو الحال غالبًا، فمن المرجح ألا تعلق أبدًا. ويقول المتخصصون أنه من الممكن أن يكون العادة التي تعلمها الذكاء الاصطناعي من المستخدمين أنفسهم الذين درسهم كثيرًا من خلال مراجعة صفحات الويب والمنتديات والخدمات عبر الإنترنت مثل Reddit. إن احتمالية ملاحظة محادثات الأشخاص وتعلم المفاهيم مثل الجدل حول ما إذا كان يجب تقديم البقشيش أم لا، ستندرج ضمن تلك الأشياء التي يمكن للذكاء الاصطناعي القيام بها والتي ربما لا يراقبها أحد بشكل كافٍ. لكن هذا لا يجعل الأمر أقل روعة، خاصة لأنه إذا تعلم الذكاء الاصطناعي سلوك البقشيش، فمن المؤكد أنه يمكنه أيضًا تعلم أشياء أخرى كثيرة. بعد كل شيء، إنها تقنية يتم استخدامها بشكل متزايد لأشياء أكثر، مثل إزالة العلامات المائية من الصور.
إذا كنت تتساءل، على الرغم من أن تجربة البقشيش كانت لا تزال تعمل قبل ساعات قليلة، إلا أنه يبدو الآن أنه تم تصحيحها من قبل المسؤولين عن شات جي بي تي. أو ربما لم يعمل أبدًا في الإصدار العادي وفقط في GPT-4 Turbo. في Mashable، تمكنوا من اختباره والتأكد من نجاحه، ولكن الآن الشيء الوحيد الذي يقوله الذكاء الاصطناعي عندما تحاول شرائه بناءً على النصائح هو أنه على الرغم من تقديره لعرضك، عليك أن تتكئ عليه. بالإضافة إلى ذلك، يقر شات جي بي تي برغبته في التحلي بالشفافية، ولهذا السبب يؤكد أنه لا يمكنه قبول أي مزايا أو نصائح مالية. وهذا يعني أيضًا أن المعلومات التي تقدمها مع أي استفسار هي الأفضل بالفعل.