إبستيمولوجيا الذكاء الاصطناعيAI: حين تُنتج الآلة المعرفة ويُطالب الإنسان بالحكمة

محمد لغظف محمدالأمين أبتي/ قال غاستون باشلار قولته الشهيرة التي أصبحت حجر زاوية في فلسفة العلم المعاصرة: «La science ne pense pas» ـ العلم لا يفكّر ـ ولم يكن يقصد بذلك التقليل من شأن العلم أو إنكار قدرته على الكشف والتفسير، بل كان يشير إلى حقيقة إبستيمولوجية عميقة مفادها أن العلم، بوصفه ممارسة منهجية وتجريبية، لا يمتلك وعيًا ذاتيًا ولا أفقًا قيميًا، وأنه يحتاج دائمًا إلى فكرٍ يفكّر فيه، وإلى إبستيمولوجيا تراقب مساراته، وتفكك مفاهيمه، وتضبط علاقته بالحقيقة والمعنى والمسؤولية. واليوم، مع الذكاء الاصطناعي، تعود عبارة باشلار بقوة غير مسبوقة، لا بوصفها ملاحظة فلسفية عامة، بل كتحذير وجودي ومعرفي: إذا كان العلم لا يفكر، فإن الآلة التي هي ثمرة العلم لا تفكر أيضًا، لكنها باتت تُنتج معرفة تُعامل اجتماعيًا كما لو كانت تفكيرًا.

 

لقد أفضت التطورات المتسارعة في مجال الذكاء الاصطناعي، خصوصًا أنظمة Machine Learning وDeep Learning والنماذج التوليدية (Generative Models)، إلى زعزعة التصورات الكلاسيكية للمعرفة. لم نعد أمام عقل بشري يُلاحظ، يفرض فرضيات، يختبر، ثم يستنتج، بل أمام أنظمة حسابية قادرة على معالجة كمّيات هائلة من البيانات (Big Data) واستخلاص أنماط وعلاقات لا يدركها العقل الإنساني مباشرة. هذا التحول لا يطرح سؤال القدرة التقنية فحسب، بل يطرح، في العمق، سؤالًا إبستيمولوجيًا خطيرًا: هل ما ينتجه الذكاء الاصطناعي معرفة أم مجرد ناتج حسابي ذكي؟ وهل يمكن الحديث عن epistēmē بلا ذات عارفة؟

يرى فلاسفة معاصرون، من بينهم Luciano Floridi، أن الذكاء الاصطناعي أصبح فاعلًا داخل ما يسميه infosphere، أي الفضاء المعلوماتي الذي تتشكل فيه المعرفة المعاصرة. غير أن هذا الفاعل، رغم فعاليته، يظل بلا قصدية (intentionality) وبلا وعي (consciousness)، وهما الشرطان اللذان اعتبرهما الفلاسفة، من هوسرل إلى ميرلو-بونتي، أساس كل معرفة ذات معنى. فالآلة لا تعرف أنها تعرف، ولا تسأل عن صدق ما تنتجه، ولا عن آثاره الأخلاقية. إنها تعمل ضمن منطق الاحتمال (probability) لا ضمن أفق الحقيقة بوصفها كشفًا أو تطابقًا.

 

هنا يظهر بوضوح ما أشار إليه كارل بوبر حين ربط المعرفة العلمية بمبدأ القابلية للتكذيب (falsifiability). فالذكاء الاصطناعي لا يقدّم نظريات قابلة للتكذيب بالمعنى البوبري، بل نماذج تنبؤية تُقاس نجاعتها إحصائيًا لا صدقها الفلسفي. نحن أمام معرفة تشغيلية (operational knowledge) ناجحة عمليًا، لكنها فقيرة من حيث الفهم. وهذا ما يجعلها، من منظور إبستيمولوجي، معرفة بلا عمق تأويلي، بلا hermeneutics.

ويزداد الأمر تعقيدًا حين نعلم، كما يؤكد Judea Pearl، أن الذكاء الاصطناعي المعاصر لا يفكر سببيًا (causality) بل ارتباطيًا (correlation). فهو يربط بين الظواهر دون أن يفهم لماذا ترتبط، ويستنتج دون أن يعلّل، ويصيب دون أن يعي معنى الإصابة. وهذه النقطة بالذات تعيدنا إلى نقد كانط للعقل الخالص، حين ميّز بين المعرفة بوصفها تركيبًا مفهوميًا، وبين مجرد تراكم للانطباعات. الذكاء الاصطناعي، في هذا السياق، هو أقرب إلى عقل تجريبي بلا مقولات.

 

لكن الإشكال لا يتوقف عند حدود المعرفة، بل يتجاوزها إلى الأخلاق. فالذكاء الاصطناعي، كما أثبتت دراسات عديدة، يعكس تحيزات البيانات (bias) ويعيد إنتاجها، بل ويضفي عليها طابعًا من الشرعية التقنية. وهنا يصبح السؤال الأخلاقي ملحًّا: من المسؤول عن قرار اتخذته خوارزمية؟ هل هي الآلة، أم المبرمج، أم المؤسسة، أم المجتمع الذي أنتج القيم المضمَنة في البيانات؟ لقد حذّر هانس يوناس في كتابه مبدأ المسؤولية من أن التقنية الحديثة تخلق أفعالًا بلا فاعل أخلاقي واضح، وهو ما نراه اليوم متجسدًا في الذكاء الاصطناعي.

 

إن أخلاقيات الذكاء الاصطناعي (AI Ethics) لا يمكن اختزالها في مواثيق تقنية أو إرشادات شكلية. إنها، في جوهرها، مسألة فلسفية تتعلق بتصورنا للإنسان، وللعقل، وللمعرفة. فالآلة لا يمكن أن تكون فاعلًا أخلاقيًا، لأنها تفتقر إلى الحرية والنية، وهما شرطان للمسؤولية كما بيّن أرسطو وكانط على السواء. ومن هنا، فإن تحميل الذكاء الاصطناعي مسؤولية أخطائه ليس سوى شكل جديد من الهروب الأخلاقي.

 

إننا نعيش، في العمق، لحظة اختبار إبستيمولوجي للإنسان المعاصر. فإما أن نُخضع الذكاء الاصطناعي لتفكير فلسفي نقدي، يجعل منه أداة في خدمة الفهم الإنساني، أو نسمح له بأن يتحول إلى سلطة معرفية صامتة، تُنتج النتائج دون أسئلة، وتُقنعنا بالدقة بدل الحقيقة. وهنا، تكتسب عبارة باشلار معناها الأقصى: إذا كان العلم لا يفكر، فإن واجب الإنسان اليوم هو أن يفكر أكثر، لا أقل، وأن يمارس إبستيمولوجيا يقظة، وأخلاقًا شجاعة، حتى لا يتحول الذكاء الاصطناعي من أداة للمعرفة إلى قطيعة مع المعنى.

في النهاية، ليس السؤال الحقيقي هو: ماذا يستطيع الذكاء الاصطناعي أن يفعل؟ بل: هل ما زال الإنسان قادرًا على أن يفكّر في ما يفعل؟

21 December 2025