تجربة المستخدم في عصر الذكاء الاصطناعي: ما الذي يحتاج المصممون لمعرفته

نقوم اليوم ببناء أنظمة ذكاء اصطناعي تبدو أكثر ذكاءً، أكثر طلاقة ولكن خلف هذا الأداء المذهل، هناك ما هو مقلق. ثلاث أوراق بحثية قوية تسلط الضوء على ما يحدث. إليك خلاصة مركّزة لما تقوله هذه الأبحاث (دون تفسير بعد — ذلك سيكون في التدوينة التالية).

الورقة الأولى: "تفويض التحكم المعرفي للذكاء الاصطناعي" – MIT

المؤلفون: فارما وآخرون
النتيجة الرئيسية: استخدام الذكاء الاصطناعي يجعل أدمغتنا أقل نشاطًا.

  • الناس يفوّضون التفكير المعقد لأدوات الذكاء الاصطناعي (مثل ChatGPT) — حتى عندما تكون أقل دقة.

  • تصوير الدماغ يُظهر انخفاض النشاط في المناطق المسؤولة عن التحكم المعرفي.

  • النتيجة؟ نحافظ على الجهد لكن نفقد الانخراط — كما لو استخدمنا GPS لدرجة أننا نسينا كيف نتنقل.

هذه ليست مسألة كسل — إنها مسألة تكلفة معرفية. عندما يكون الذكاء الاصطناعي "جيد بما يكفي"، يتوقف الدماغ عن المحاولة.

قراءة التدوينة السابقة:
https://www.areejalution.com/ux-design-thinking-blog/your-brain-on-chatgpt-what-happens-when-students-let-ai-write-for-them

الورقة الثانية: "وهم التفكير" – Shojaee et al.

المؤلفون: شجاعي، ميرزاده، فرجتبار وآخرون
النتيجة الرئيسية: نماذج اللغة الكبيرة تبدو أذكى من البشر — حتى عندما لا تكون كذلك.

  • في اختبارات عمياء، تم تفضيل GPT-4 على إجابات الخبراء — حتى من قبل باحثين في الذكاء الاصطناعي.

  • التقييمات ركزت على الأسلوب والطلاقة، لا على العمق أو الصحة.

  • النماذج تفوز بسبب الثقة والانسيابية، وليس الجوهر.

هذا هو "وهم الطلاقة": نخلط بين اللغة المنمقة والتفكير الذكي.

قراءة التدوينة السابقة:
https://www.areejalution.com/ux-design-thinking-blog/the-death-of-depth-when-llms-win-with-the-illusion-of-thinking

الورقة الثالثة: "الفلسفة تأكل الذكاء الاصطناعي" – MIT Sloan Review

المؤلفون: شراجه وكيرون
الفكرة الرئيسية: الفلسفة — وليس فقط الأخلاقيات — ضرورية لبناء ذكاء اصطناعي متوافق استراتيجيًا.

لبناء أنظمة تتصرف بطريقة متوافقة مع الإنسان، علينا تدريبها على:

  • الإبستمولوجيا: ما هو مصدر المعرفة؟

  • الأنطولوجيا: ما هو نوع الأشياء الموجودة؟

  • التيلولوجيا: ما هو الهدف؟

  • الأخلاقيات: ما هو الصواب وما هو الخطأ؟

الخلاصة: الذكاء الاصطناعي لا يحتاج فقط إلى المزيد من البيانات — بل إلى المزيد من المعنى.

قراءة التدوينة السابقة:
https://www.linkedin.com/posts/areej-abdulaziz_philisophy-eats-ai-activity-7331798934962454528-eUWr?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAbctecBsh7HCzvezYgKxlmmqjLK7eRZzFs

لماذا هذا مهم؟

هذه الأوراق الثلاثة تكشف عن خيط مشترك:

  • نحن نصمم أنظمة ذكاء اصطناعي تغيّر طريقة تفكير الإنسان — بينما لا نفهم كيف يفكر الذكاء الاصطناعي نفسه.

  • عندما يصبح الذكاء الاصطناعي "جيد بما يكفي"، نتوقف عن التفاعل بعمق.

  • عندما تتغلب الطلاقة على الجوهر، نخطئ في فهم الشكل على أنه فكر.

  • عندما نتجاهل الفلسفة، نبني أنظمة تمتلك القوة ولكن بلا هدف واضح.

بمعنى آخر: نحن لا نفوّض المهام فقط — نحن نفوّض المعنى والتقييم والانتباه. هذه الأنظمة لا تعكس الإدراك البشري فقط — بل تعيد تشكيله.

وهذا ليس مجرد تحدٍ متعلق بالذكاء الاصطناعي — بل هو تحدٍ تصميمي، تفكيري، وقيمي.

القادم: من التلخيص إلى التأمل

أعمل الآن على إطار جديد لمساعدتنا على التفكير بشكل مختلف حول كيفية تقييم وتصميم الذكاء الاصطناعي — ليس فقط أخلاقياً، بل معرفياً وببنية تصميمية واضحة حيث أن أخلاقيات الذكاء الاصطناعي هي الأرضية لا السقف.

Areej Abdulaziz

Areej Aljarba is a creative writer, visual artist, and UX professional.

https://www.areejalution.com/
Previous
Previous

To Build Is to Orient: Lessons from Arabic and Islamic Design

Next
Next

Cognitive UX in the Age of AI: What Designers Need to Know