كيف تتخذ أنظمة الذكاء الاصطناعي القرارات؟
بشكل مبسط، تتخذ أنظمة الذكاء الاصطناعي القرارات بناءً على البيانات والأنماط التي تعلمتها. الأمر أشبه بتدريب شخص جديد على مهمة معينة؛ كلما زادت الأمثلة التي يشاهدها، وفهم كيفية التعامل مع المواقف المختلفة، أصبح أفضل في اتخاذ قراراته. لكن التفاصيل وراء ذلك أكثر تعقيدًا وتنوعًا، وتتطور باستمرار.
لفهم كيف يقرر الذكاء الاصطناعي، علينا أن ننظر إلى الطريقة التي يتعلم بها. الأمر ليس سحراً، بل هو نتيجة لخوارزميات معقدة تم تدريبها على كميات هائلة من البيانات.
التعلم من البيانات: الوقود الأساسي
- البيانات كمصدر للمعرفة: الذكاء الاصطناعي لا “يعرف” شيئاً بطبيعته. هو ببساطة يكتشف العلاقات والأنماط داخل البيانات التي تُقدم له. تخيل أنك تعلم طفلاً التعرف على القطط. ستعرض عليه صوراً كثيرة لقطط بأشكال وأحجام مختلفة، وتوضح له ما يميز القطة (الذيل، الأذنان، الشوارب). الذكاء الاصطناعي يفعل شيئاً مشابهاً، لكنه يفعل ذلك بملايين أو مليارات النقاط من البيانات.
- أنواع التعلم: هناك طرق مختلفة للتعلم. التعلم المراقب (Supervised Learning) هو الأكثر شيوعاً، حيث تُعطى الخوارزمية بيانات “مُعنونة” (أي تعرف الإجابة الصحيحة لكل مثال). على سبيل المثال، صور طعام مُعنونة بأنها “تفاحة” أو “موزة”. التعلم غير المراقب (Unsupervised Learning) يكتشف الأنماط المخفية في البيانات دون أن يعرف الإجابات مسبقاً، مثل تجميع العملاء المتشابهين في مجموعات. التعلم المعزز (Reinforcement Learning) يتعلم من خلال التجربة والخطأ، حيث يحصل على “مكافأة” عند اتخاذ قرار صحيح و”عقاب” عند اتخاذ قرار خاطئ، وهو مفيد في الألعاب أو التحكم بالروبوتات.
الخوارزميات: محركات القرار
- خوارزميات التعلم الآلي: قلب اتخاذ القرار في الذكاء الاصطناعي يكمن في الخوارزميات. هذه هي التعليمات التي توجه النظام لكيفية معالجة البيانات، واستخلاص الأنماط، وفي النهاية، اتخاذ قرار. هناك أنواع عديدة، مثل شبكات العصبونات الاصطناعية (Neural Networks) التي تحاكي بنية الدماغ البشري، وأشجار القرار (Decision Trees) التي تقسم المشكلة إلى سلسلة من الأسئلة البسيطة، والآلات الناقلة المتجهية (Support Vector Machines) التي تفصل بين فئات البيانات.
- النماذج المبنية على المجال (Domain-Specific Models): في الماضي، كانت نماذج الذكاء الاصطناعي غالباً ما تكون عامة. لكن الاتجاه الحديث هو نحو نماذج أصغر وأكثر تخصصاً، مثل نماذج IBM Granite. هذه النماذج تُدرب وتُعدّل بدقة لمجالات معينة (مثل الطب، الهندسة، القانون). هذا التخصص يجعلها أفضل في فهم التفاصيل الدقيقة واتخاذ قرارات أكثر دقة في تلك المجالات المحددة. عملية التعديل الدقيق (Fine-tuning) والتعلم المعزز تلعب دوراً كبيراً هنا.
من التنبؤ إلى التوصية: تطور دور الذكاء الاصطناعي
في البداية، اقتصر دور الذكاء الاصطناعي بشكل كبير على التحليل والتنبؤ. لكنه يتطور الآن ليصبح شريكاً استشارياً وقائداً في اتخاذ قرارات أكثر تعقيداً.
الذكاء الاصطناعي التنبؤي (Predictive AI)
- التنبؤ بالمستقبل: هذا هو الشكل الأساسي لكثير من تطبيقات الذكاء الاصطناعي. بناءً على البيانات التاريخية، يمكن للذكاء الاصطناعي التنبؤ بما قد يحدث. مثلاً، التنبؤ بما إذا كان عميل ما سيغادر، أو متى قد يتعطل جزء من آلة، أو ما هو سعر سهم معين في المستقبل.
- الاعتماد على الأنماط: يعتمد هذا النوع من الذكاء الاصطناعي بشكل كبير على اكتشاف أنماط متكررة في البيانات. إذا كان هناك نمط واضح، فمن المرجح أن يتمكن الذكاء الاصطناعي من التنبؤ به. ولكن إذا كانت البيانات عشوائية أو غير مكتملة، فتكون التنبؤات أقل دقة.
الذكاء الاصطناعي الوصفي (Prescriptive AI): الخطوة التالية
- ماذا يجب أن نفعل؟ الذكاء الاصطناعي الوصفي يأخذ الأمور خطوة أبعد من مجرد التنبؤ. لا يخبرك فقط بما سيحدث، بل يوصي بأفضل مسار للعمل. يقوم بذلك من خلال تقييم الأهداف المختلفة، والقيود الموجودة، والمخاطر المحتملة، والاحتمالات.
- أساس القرار: لنفترض أن لديك هدفاً لزيادة المبيعات، لكن لديك قيداً متعلقاً بالميزانية، وهناك خطر من استجابة المنافسين. يقوم الذكاء الاصطناعي الوصفي بتحليل هذه العوامل لتحديد الإجراء الأمثل، مثل حملة تسويقية معينة، أو تعديل سعر منتج، مع الأخذ في الاعتبار كل هذه المتغيرات. هذا يحسن سرعة اتخاذ القرار، ويجعله أكثر موضوعية، ويزيد من شفافيته.
الذكاء الاصطناعي العملي (Agentic AI): نحو استقلالية القرار

مع تقدم التكنولوجيا، بدأت تظهر أنظمة ذكاء اصطناعي قادرة على اتخاذ قرارات مستقلة وتنفيذها ضمن حدود معينة.
مفهوم “الوكلاء” في الذكاء الاصطناعي
- وكلاء مستقلون: الوكيل المعرفي (Agentic AI) هو نظام مصمم للتفكير والتخطيط والتصرف بشكل مستقل لتحقيق أهداف محددة. يمكن أن تكون هذه الأهداف بسيطة مثل إدارة المخزون في مستودع، أو معقدة مثل التفاوض على صفقة تجارية.
- العمل في حدود: هذه الوكلاء لا يتخذون قرارات عشوائية. يتم تعريف “معايير” واضحة لهم، وهي المبادئ التوجيهية والقيود التي يجب عليهم الالتزام بها. على سبيل المثال، وكيل لإدارة لوجستيات، قد يكون لديه معايير تتعلق بتكلفة الشحن، ووقت التسليم، وسعة المركبات.
- الحاجة للإشراف: على الرغم من تطورها، فإن هذه الأنظمة لا تزال بحاجة إلى إشراف بشري. الأمر ليس تخلياً كاملاً عن المسؤولية، بل هو شراكة. الحوكمة (Governance) القوية، وقابلية الشرح (Explainability)، وإمكانية التدقيق (Auditability) هي أمور أساسية لضمان أن الوكلاء يتخذون قرارات مسؤولة.
أمثلة على الاستخدامات العملية
- إدارة العمليات: يمكن للوكلاء تحسين جدولة الإنتاج، وتخصيص الموارد، وإدارة سلاسل الإمداد بشكل مستقل، مع الاستجابة للتغيرات في الوقت الفعلي.
- الخدمات المالية: قد يتخذ وكيل قرارات بشأن تخصيص الاستثمارات ضمن استراتيجية محددة، أو إدارة المخاطر في محفظة مالية.
- أنظمة الدعم: يمكن استخدام وكلاء لتحليل طلبات العملاء، وتوجيه المشكلات إلى القسم الصحيح، أو حتى تقديم استجابات أولية.
الشراكة بين الإنسان والآلة: قوة العمل الهجين

الاتجاه الأحدث لا يركز فقط على جعل الذكاء الاصطناعي يتخذ القرارات بنفسه، بل على كيفية عمله مع البشر لتحسين عملية صنع القرار.
كيف تدمج “الحلقة البشرية” (Human-in-the-Loop)؟
- توزيع المهام: في هذه الأنظمة، يتولى الذكاء الاصطناعي المهام الروتينية والمتكررة التي تتطلب معالجة كميات كبيرة من البيانات بسرعة. هذا يتيح للبشر التفرغ للمهام الأكثر تعقيداً والتي تتطلب تفكيراً استراتيجياً، وحكماً أخلاقياً، وفهماً دقيقاً للسياق.
- المسؤولية المشتركة: لا يزال البشر هم المسؤولون النهائيون عن القرارات الاستراتيجية والأخلاقية. الذكاء الاصطناعي هنا هو أداة دعم قوية. تخيل طبيباً يستخدم الذكاء الاصطناعي لتحليل صور الأشعة السينية؛ الذكاء الاصطناعي قد يشير إلى منطقة مشبوهة، لكن الطبيب هو من يقوم بالتشخيص النهائي بناءً على خبرته والسياق الكامل للمريض.
- النتائج الإحصائية: تشير التقارير إلى أن حوالي 60% من المديرين التنفيذيين يستخدمون الذكاء الاصطناعي كأداة مساعدة في اتخاذ قراراتهم. هذا يدل على أن فكرة الشراكة ليست مجرد نظرية، بل هي ممارسة متزايدة.
الفوائد الملموسة لهذه الشراكة
- زيادة الكفاءة: إسناد المهام المتكررة للآلة يقلل الوقت والجهد المبذول، ويزيد من سرعة الإنجاز.
- تحسين الدقة: عندما يركز البشر على الجوانب التي تتطلب خبرتهم، قد يقلل ذلك من الأخطاء البشرية، بينما الذكاء الاصطناعي يقلل من الأخطاء الناجمة عن التعب أو الملل.
- قرارات أكثر استنارة: البشر يمكنهم إضافة الفهم السياقي والحدس للأدلة التي يقدمها الذكاء الاصطناعي، مما يؤدي إلى قرارات أكثر استنارة وعمقاً.
ضمان الثقة والموثوقية: تحديات وحلول
مع تزايد الاعتماد على الذكاء الاصطناعي في اتخاذ القرارات، أصبح بناء الثقة في هذه الأنظمة أمراً جوهرياً. هذا يتطلب معالجة بعض التحديات التقنية والأخلاقية.
معالجة “الهلوسة” والتحيزات
- ما هي الهلوسة؟ في سياق الذكاء الاصطناعي، تشير “الهلوسة” إلى قيام النموذج بتوليد معلومات غير صحيحة أو غير موجودة، لكنها تبدو مقنعة. هذا يمكن أن يحدث عندما يفتقر النموذج إلى بيانات كافية حول موضوع معين، أو عندما تكون البيانات التي تدرب عليها تحتوي على أخطاء.
- التحيزات الخفية: نماذج الذكاء الاصطناعي تتعلم من البيانات. إذا كانت البيانات تحتوي على تحيزات (اجتماعية، ثقافية، غير ذلك)، فإن النموذج سيعكس هذه التحيزات في قراراته، مما قد يؤدي إلى نتائج غير عادلة أو تمييزية.
- الجهود المبذولة: هناك جهود مستمرة لفهم أسباب الهلوسة وتقليلها، وكذلك للكشف عن التحيزات وتصحيحها في البيانات ونماذج التدريب.
بناء الثقة من خلال الشفافية والمساءلة
- الذكاء الاصطناعي القابل للشرح (Explainable AI – XAI): هذا مجال بحثي يهدف إلى جعل كيفية اتخاذ الذكاء الاصطناعي لقراراته أكثر وضوحاً للبشر. بدلاً من الحصول على مجرد إجابة، نريد أن نفهم “لماذا” حصلنا على هذه الإجابة.
- مسارات التدقيق: يجب أن تكون هناك سجلات واضحة لعمليات اتخاذ القرار، بما في ذلك البيانات المستخدمة، والنماذج التي تم استدعاؤها، والمعايير التي تم تطبيقها. هذا يسمح بمراجعة القرارات وتحديد المسؤولية في حالة حدوث مشكلة.
- المراقبة المستمرة: يجب مراقبة أداء نماذج الذكاء الاصطناعي باستمرار بعد نشرها للتأكد من أنها لا تزال تعمل بشكل صحيح، وأنها لم تطور تحيزات جديدة، وأنها تتخذ قرارات متسقة مع الأهداف المرجوة. المساءلة تعني أن هناك جهة مسؤولة عن نتائج ما يتخذه الذكاء الاصطناعي.
This lengthy explanation has aimed to provide a comprehensive, yet accessible, understanding of how AI systems make decisions. It has covered the foundational learning processes, the evolution from predictive to prescriptive and agentic AI, the crucial human-AI collaboration, and the critical aspects of governance and trust. By focusing on practical examples and current trends, it seeks to offer a realistic perspective on the capabilities and challenges of AI decision-making.
English