قبل شراء الذكاء الاصطناعي، ابنِ القواعد: قصة تحوّل ذكي لمؤسسة بحثية

قصة مستوحاة من رسالة الماجستير للباحث: تركي محمد المحرق، في جامعة الملك عبد العزيز، عن واقع استخدام الذكاء الاصطناعي التوليدي في البحث العلمي
Idle Base Brows High Brows Low Eyes Mouth Half Mouth Full

قصة البحث من أَثرة


📉 كل شيء بدا واعداً… حتى توقف الإنتاج! 

كانت مؤسسة “رؤية للمعرفة”، وهي مؤسسة بحثية رائدة، تسعى دائماً لتسريع وتيرة إنتاج التقارير والأبحاث العلمية. ومع بزوغ فجر “الذكاء الاصطناعي التوليدي”، رأت الإدارة فرصة ذهبية. قامت المؤسسة بتوفير اشتراكات في أدوات ذكاء اصطناعي متقدمة لجميع باحثيها، متوقعة أن تقفز الإنتاجية إلى مستويات غير مسبوقة.

لكن حدث العكس تماماً! بدلاً من زيادة الإنتاج، بدأت وتيرة العمل تتباطأ. لاحظت الإدارة أن الباحثين يرفضون استخدام هذه الأدوات، والقلة التي استخدمتها بدأت تقدم أبحاثاً تفتقر إلى اللمسة النقدية والإبداع البشري. المؤسسة كانت تدفع أموالاً طائلة في تقنيات لا تُستخدم بالشكل الصحيح.

في البداية، ظنت الإدارة أن المشكلة تقنية أو أن الأدوات معقدة الاستخدام. فما المشكلة الحقيقية إذاً؟

❓ هل وفرنا الأداة وتجاهلنا “الإنسان”؟ 

ما اكتشفته الإدارة لاحقاً كان مفاجئاً: المشكلة لم تكن في كفاءة الذكاء الاصطناعي، بل في “الخوف” و”نقص التوجيه”. كان الباحثون يعيشون في حيرة؛ فهم يدركون قوة هذه الأدوات في توفير الوقت، لكنهم يخشون بشدة من الوقوع في فخ “السرقات العلمية” أو الاعتماد على معلومات غير دقيقة ومضللة. ببساطة، غابت المعايير والأخلاقيات الواضحة، فتوقف الإبداع.

🔬 الحل؟ العودة إلى العلم والبحث 

لحسن الحظ، استعانت المؤسسة بنتائج دراسة حديثة للباحث “تركي المحرق” من جامعة الملك عبد العزيز. كان تركي يبحث في سؤال جوهري: ما هو مستوى استخدام طلاب الدراسات العليا (الباحثين) للذكاء الاصطناعي التوليدي؟ وما هي التحديات التي تمنعهم من الاستفادة منه؟.

ما كشفه بحث تركي كان بمنزلة خريطة طريق واضحة:

  • أجرى دراسة شاملة (كمية ونوعية) على مئات الباحثين لفهم تصوراتهم الحقيقية.
  • اكتشف مفارقة عجيبة: الباحثون يرون أن تقييم الذكاء الاصطناعي “مرتفع” نظرياً في توفير الوقت والترجمة والتنظيم، لكن الاستخدام “الفعلي” كان شبه معدوم!.
  • حدد السبب الجذري: هناك وعي “محدود” بكيفية الاستخدام الصحيح، ومخاوف أخلاقية عميقة، وضعف في الثقة بمخرجات هذه الأدوات.

⚙️ سياسات واضحة غيّرت كل شيء 

بناءً على توصيات البحث، أدركت مؤسسة “رؤية” أن الذكاء الاصطناعي ليس عصا سحرية تعمل بمفردها، بل يحتاج إلى بيئة موجهة. فبدأت بتطبيق الإجراءات التالية:

  • تصحيح المفهوم: تم توجيه الباحثين لاستخدام الذكاء الاصطناعي كـ”مساعد” لرسم خارطة البحث، العصف الذهني، تبسيط المفاهيم، والترجمة، وليس لكتابة البحث نيابة عنهم.
  • وضع معايير أخلاقية: أصدرت الإدارة دليلاً واضحاً يحدد متى وكيف يُسمح باستخدام الذكاء الاصطناعي، مع التشديد على الرقابة البشرية والمراجعة النقدية.
  • التدريب الموجه: إطلاق برامج لتدريب الباحثين على كيفية الاستفادة من هذه الأدوات بشكل آمن ومسؤول.

النتيجة؟ زادت الإنتاجية بشكل ملحوظ، وتلاشت المخاوف، وعادت الثقة للباحثين لأنهم عرفوا حدود الأداة وكيفية تسخيرها لخدمة إبداعهم البشري.

📖 ما الدرس لك أنت كصانع قرار؟ 

هذه القصة ليست مقتصرة على الجامعات أو مراكز الأبحاث. أي مؤسسة (شركة تقنية، جهة حكومية، قطاع إعلامي) تدخل تقنيات الذكاء الاصطناعي لموظفيها دون “إطار عمل واضح”، ستواجه نفس العوائق.

تريد أن تضمن أن مؤسستك لا تهدر المال على أدوات ذكية لا يُحسن موظفوك استخدامها؟ استخدم هذه الأداة الإدارية (قائمة التحقق) المستخلصة من البحث العلمي لتقييم جاهزية مؤسستك:


📋 قائمة تحقق إدارية: الإدماج الفعال والآمن للذكاء الاصطناعي التوليدي في بيئة العمل

هذه القائمة مصممة لمساعدة المديرين وصناع القرار على ضمان استخدام أدوات الذكاء الاصطناعي التوليدي بشكل يرفع الإنتاجية ولا يخل بالأخلاقيات أو جودة العمل.

البعدالمعياربند التحقق
الوعي والتدريبهل يمتلك فريق العمل الفهم الصحيح لقدرات وحدود الذكاء الاصطناعي؟– [ ] هل قمنا بتدريب الموظفين على استخدام الذكاء الاصطناعي كـ”مساعد” (للتلخيص، الترجمة، العصف الذهني) وليس كـ”بديل” للتفكير البشري؟ 
– [ ] هل وفرنا برامج توعوية لكسر حاجز الخوف أو التردد لدى الموظفين تجاه التقنيات الجديدة؟ 
الأخلاقيات والسياساتهل لدينا قواعد عمل واضحة تحمي المؤسسة من المخاطر؟– [ ] هل وضعنا معايير واضحة ومكتوبة تحدد ما هو مسموح وما هو ممنوع عند استخدام الذكاء الاصطناعي؟ 
– [ ] هل توجد إرشادات للتعامل مع الخصوصية وسرية بيانات المؤسسة عند إدخالها في أدوات الذكاء الاصطناعي؟ 
الرقابة البشريةهل نضمن عدم الانقياد الأعمى خلف مخرجات الآلة؟– [ ] هل نشجع ثقافة “التفكير النقدي” للتحقق من دقة وموثوقية المعلومات التي يولدها الذكاء الاصطناعي لتجنب “المعلومات المضللة”؟ 
– [ ] هل نضمن وجود إشراف بشري نهائي على أي قرار أو محتوى يتم إنتاجه بمساعدة هذه الأدوات؟ 
الاستثمار الفعالهل نستخدم الأدوات المناسبة لاحتياجاتنا الفعلية؟– [ ] هل قمنا بتقييم الأدوات المتاحة للتأكد من أنها توفر الجهد والوقت فعلياً على الموظفين (مثل إدارة الوقت، وتقليل الأعباء الروتينية)؟ 
– [ ] هل نستمع لتجارب ومخاوف الموظفين بشكل دوري لتحسين بيئة العمل التقنية؟ 

في النهاية… شراء التقنية الذكية هو أسهل خطوة، لكن “الاستثمار الحقيقي” يكمن في تهيئة العقول التي ستستخدمها وتأطيرها بالسياسات الصحيحة. لا تترك فريقك في حيرة، ابدأ بوضع المعايير اليوم!


أصل القصة: البحث الأكاديمي

هذه المقالة القصصية تخيلية مستخرجة من بحث أكاديمي منشور للباحث تركي محمد المحرق، بهدف تبسيط فكرة البحث وفائدته لغير المختصين:

Almoharraq, T. M. (2024). The Use of Generative Artificial Intelligence in Graduate Studies Research: A Case Study. Arab Journal of Sciences & Research Publishing, 10(4), 1-18. https://doi.org/10.26389/AJSRP.K120924

وهذه المقالة القصصية ضمن مبادرة #حوّلها_قصّة.

لديك بحث أكاديمي وتريد منا تحوليه إلى قصة ونشره؟

تواصل معنا مباشرة عبر العنوان: team@humancenteredlabs.com ونتطلع بشوق لتحويل أبحاثكم إلى أثر مفيد.

عن مبادرة حولها قصة:

الفكرة:

رسالتك الماجستير لم يقرأها أحد سوى لجنة الحكم؟ (هذا إن قرؤوها 🫣)

نحن لا نهتم بها بحسب، بل نتعمق بها ونحوّل رسالتك المعقدة إلى قصة جذابة وأدوات مفيدة لسوق العمل!

وننشرها ونشاركها مع القيادات … ومن يدري، قد تكون رسالتك مفتاح لفرصة عمل لك في سوق العمل!

الهدف:

نهدف إلى جعل الأبحاث الأكاديمية التخصصية بمتناول الناس وقيادات المجتمع والمؤسسات، لتكون أكثر فائدة. عبر استخراج القصص والأدوات التطبيقية من هذه الأبحاث بلغة وأطر تناسب الجمهور المستهدف.

الآن هو أفضل توقيت:

مع طفو المحتوى السطحي والمولّد بالذكاء الاصطناعي في وسائل التواصل الاجتماعي، زادت حاجتنا للمحتوى الأصيل والمفيد والنوعي، وليس أفضل وأعمق من الأبحاث الأكاديمية لتكون مرشداً وداعماً نوعياً.

لديك بحث أكاديمي وتريد منا تحوليه إلى قصة ونشره؟

تواصل معنا مباشرة عبر العنوان: team@humancenteredlabs.com ونتطلع بشوق لتحويل أبحاثكم إلى أثر مفيد.

شــــارك عبر

أفكار قد تهمك:

مقال

عندما يتعلم الذكاء الاصطناعي التواضع

مقال

عندك بيانات؟ ماذا بعد؟