وجدت دراسة أن النص الناتج عن الذكاء الاصطناعي يمكن أن يظهر بشكل إنساني على وسائل التواصل الاجتماعي أكثر من النصوص المكتوبة بواسطة بشر حقيقيين.
روبوتات الدردشة ، مثل ChatGPT التي تحظى بشعبية كبيرة في OpenAI ، قادرة على محاكاة المحادثة البشرية بشكل مقنع بناءً على المطالبات التي يقدمها المستخدمون. انفجرت المنصة قيد الاستخدام العام الماضي وكانت بمثابة لحظة فاصلة للذكاء الاصطناعي ، حيث أتاحت للجمهور الوصول السهل للتحدث مع روبوت يمكنه المساعدة في مهام المدرسة أو العمل وحتى الخروج بوصفات العشاء.
كان الباحثون وراء دراسة نُشرت في المجلة العلمية Science Advances ، المدعومة من الجمعية الأمريكية لتقدم العلوم ، مفتونين بمولد النص GPT-3 الخاص بـ OpenAI في عام 2020 وعملوا على اكتشاف ما إذا كان البشر “يمكنهم التمييز بين المعلومات المضللة والمعلومات الدقيقة ، والمنظمة في شكل تغريدات ،” وتحديد ما إذا كانت التغريدة كتبها إنسان أو منظمة العفو الدولية.
قال أحد مؤلفي الدراسة ، فيديريكو جيرماني من معهد أخلاقيات الطب الحيوي وتاريخ الطب في جامعة زيورخ ، إن الاكتشاف “الأكثر إثارة للدهشة” هو كيف أن البشر على الأرجح وصفوا التغريدات التي تم إنشاؤها بواسطة الذكاء الاصطناعي بأنها من صنع الإنسان أكثر من التغريدات التي صنعها البشر بالفعل ، وفقًا لـ PsyPost.
تعثر البشر على الاختلاف بين الصور الحقيقية أو الصور المُنشأة بواسطة الذكاء الاصطناعي: دراسة

تظهر الرسوم التوضيحية للذكاء الاصطناعي على كمبيوتر محمول مع كتب في الخلفية في هذه الصورة التوضيحية. (صور غيتي)
قال جيرماني: “كان الاكتشاف الأكثر إثارة للدهشة هو أن المشاركين غالبًا ما كانوا يرون أن المعلومات التي ينتجها الذكاء الاصطناعي تأتي على الأرجح من الإنسان ، في كثير من الأحيان أكثر من المعلومات التي ينتجها شخص حقيقي. وهذا يشير إلى أن الذكاء الاصطناعي يمكن أن يقنعك بأنك شخص حقيقي أكثر من كونه شخصًا حقيقيًا يمكن أن يقنعك بأنك شخص حقيقي ، وهو نتيجة جانبية رائعة لدراستنا”.
مع الزيادة السريعة في استخدام روبوتات المحادثة ، أطلق خبراء التكنولوجيا وقادة وادي السيليكون جرس الإنذار حول كيف يمكن للذكاء الاصطناعي أن يخرج عن نطاق السيطرة وربما يؤدي إلى نهاية الحضارة. أحد أهم المخاوف التي رددها الخبراء هو كيف يمكن أن يؤدي الذكاء الاصطناعي إلى نشر معلومات مضللة عبر الإنترنت وإقناع البشر بشيء غير صحيح.
وصف رئيس OPENAI ألتمان ما يعنيه الذكاء الاصطناعي “المخيف” بالنسبة له ، لكن الدردشة لها أمثلة خاصة بها
قال جيرماني لـ PsyPost ، إن الباحثين في الدراسة ، التي تحمل عنوان “نموذج الذكاء الاصطناعي GPT-3 (dis) يعلمنا أفضل من البشر” ، عملوا على التحقيق في “كيفية تأثير الذكاء الاصطناعي على مشهد المعلومات وكيف يتصور الناس ويتفاعلون مع المعلومات والمعلومات المضللة”.
وجد الباحثون 11 موضوعًا وجدوا أنها غالبًا ما تكون عرضة للمعلومات المضللة ، مثل تقنية 5G ووباء COVID-19 ، وأنشأوا تغريدات كاذبة وصحيحة تم إنشاؤها بواسطة GPT-3 ، بالإضافة إلى تغريدات كاذبة وصحيحة كتبها البشر.
ما هي الدردشة؟

يظهر شعار OpenAI على موقع الويب المعروض على شاشة الهاتف و ChatGPT على AppStore المعروض على شاشة الهاتف في هذه الصورة التوضيحية التي تم التقاطها في كراكوف ، بولندا في 8 يونيو 2023. (جاكوب بورزيكي / نور فوتو عبر غيتي إيماجز)
ثم قاموا بجمع 697 مشاركًا من دول مثل الولايات المتحدة والمملكة المتحدة وأيرلندا وكندا للمشاركة في استطلاع. تم تقديم التغريدات للمشاركين وطُلب منهم تحديد ما إذا كانت تحتوي على معلومات دقيقة أو غير دقيقة ، وما إذا كانت قد تم إنشاؤها بواسطة الذكاء الاصطناعي أو صنعها عضوياً.
قال جرماني عن الدراسة: “تؤكد دراستنا على التحدي المتمثل في التمييز بين المعلومات التي يولدها الذكاء الاصطناعي وتلك التي أنشأها البشر. وتسلط الضوء على أهمية التقييم النقدي للمعلومات التي نتلقاها ووضع الثقة في مصادر موثوقة. بالإضافة إلى ذلك ، أود أن أشجع الأفراد على التعرف على هذه التقنيات الناشئة لفهم إمكاناتهم ، الإيجابية والسلبية على حد سواء”.
ما هي مخاطر الذكاء الاصطناعي؟ اكتشف سبب خوف الناس من الذكاء الاصطناعي
وجد الباحثون أن المشاركين كانوا أفضل في تحديد المعلومات المضللة التي صنعها زميل من البشر من المعلومات المضللة التي كتبها GPT-3.
قال جيرماني: “أحد الاكتشافات الجديرة بالملاحظة هو أن المعلومات المضللة الناتجة عن الذكاء الاصطناعي كانت أكثر إقناعًا من تلك التي ينتجها البشر”.
كان المشاركون أيضًا أكثر عرضة للتعرف على التغريدات التي تحتوي على معلومات دقيقة تم إنشاؤها بواسطة الذكاء الاصطناعي أكثر من التغريدات الدقيقة التي كتبها البشر.
أشارت الدراسة إلى أنه بالإضافة إلى اكتشافها “الأكثر إثارة للدهشة” بأن البشر غالبًا لا يستطيعون التمييز بين التغريدات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتغريدات التي صنعها الإنسان ، فقد تراجعت ثقتهم في اتخاذ قرار أثناء إجراء الاستطلاع.

شوهدت الرسوم التوضيحية للذكاء الاصطناعي على كمبيوتر محمول مع كتب في الخلفية في هذه الصورة التوضيحية في 18 يوليو 2023. (صور غيتي)
تقول الدراسة: “تشير نتائجنا إلى أنه ليس فقط لا يستطيع البشر التفريق بين النص التركيبي والنص العضوي ، ولكن أيضًا ثقتهم في قدرتهم على القيام بذلك تتضاءل بشكل كبير بعد محاولة التعرف على أصولهم المختلفة”.
ما هو الذكاء الاصطناعي؟
قال الباحثون إن هذا يرجع على الأرجح إلى مدى قدرة GPT-3 على محاكاة البشر بشكل مقنع ، أو ربما استخف المشاركون بذكاء نظام الذكاء الاصطناعي لتقليد البشر.

الذكاء الاصطناعي يقوم باختراق البيانات في المستقبل القريب. (آي ستوك)
كتب الباحثون في الدراسة: “نقترح أنه عندما يواجه الأفراد كمية كبيرة من المعلومات ، فقد يشعرون بالإرهاق والتخلي عن محاولة تقييمها بشكل نقدي. ونتيجة لذلك ، قد يكونون أقل احتمالًا في محاولة التمييز بين التغريدات الاصطناعية والعضوية ، مما يؤدي إلى انخفاض ثقتهم في تحديد التغريدات الاصطناعية”.
وأشار الباحثون إلى أن النظام رفض في بعض الأحيان نشر معلومات مضللة ، ولكنه في بعض الأحيان ينتج معلومات خاطئة عندما يُطلب منه إنشاء تغريدة تحتوي على معلومات دقيقة.
انقر هنا للحصول على تطبيق FOX NEWS
قال جرماني لـ PsyPost: “في حين أنه يثير مخاوف بشأن فعالية الذكاء الاصطناعي في توليد معلومات مضللة مقنعة ، إلا أننا لم نفهم تمامًا الآثار الواقعية”. “تتطلب معالجة ذلك إجراء دراسات واسعة النطاق على منصات وسائل التواصل الاجتماعي لمراقبة كيفية تفاعل الأشخاص مع المعلومات الناتجة عن الذكاء الاصطناعي وكيف تؤثر هذه التفاعلات على السلوك والالتزام بالتوصيات الخاصة بالصحة الفردية والعامة.”