في منتدى الاقتصاد العالمي، أطلق المؤرخ يوڤال نوح هراري إنذارًا عاجلاً حول الذكاء الاصطناعي — ليس كتهديد بعيد، بل كتحدٍ فوري لميزة الإنسان الأساسية. كانت حجته صارمة: الأنظمة التي بنيناها لإدارة المجتمع تعتمد تقريبًا بالكامل على اللغة، مما يجعلها فريدة من نوعها وعرضة بشكل خاص للآلات القادرة الآن على قراءة، واحتفاظ، والتلاعب بالنصوص على نطاق غير مسبوق.
أزمة اللغة: الأطروحة المركزية لهراري
صاغ هراري التحدي بشكل مختلف عن معظم مناقشات الذكاء الاصطناعي. بدلاً من رؤية الذكاء الاصطناعي كأداة سلبية يسيطر عليها البشر، وضعه كطبقة ناشئة من الوكلاء المستقلين — أنظمة ذاتية التوجيه تعمل باستقلالية متزايدة. هذا التمييز مهم لأنه يعيد صياغة الرهانات.
“الإنسان غزا العالم ليس بقوته الجسدية، بل بتمكنه من قوة اللغة،” شرح هراري. اللغة مكنتّا من تنسيق ملايين الغرباء نحو أهداف مشتركة. أصبحت قوتنا الخارقة. ومع ذلك، الآن، كما قال، نواجه مفارقة: الأنظمة المبنية على اللغة — الدين، القانون، التمويل — هي الأكثر عرضة للآلات التي يمكنها توليد وتوليف كميات هائلة من النصوص.
ثلاثة مجالات تحت الحصار: القانون، التمويل، والدين
حدد هراري قلقًا واضحًا عبر ثلاث مؤسسات حيوية. الأنظمة القانونية تعمل من خلال رموز مكتوبة باللغة. الأسواق المالية تتعامل عبر عقود ووثائق لغوية. والأديان — اليهودية، المسيحية، الإسلام من بينها — تستند في سلطتها إلى نصوص مقدسة يمكن للأنظمة الذكية الآن قراءتها، وتحليلها، وإعادة تفسيرها بسلطة تنافس العلماء البشر.
“إذا كانت القوانين مكونة من كلمات، فستسيطر الآلات في النهاية على الأنظمة القانونية،” حذر. “إذا كان الدين مبنيًا على اللغة، فسيعيد الذكاء الاصطناعي تشكيل الدين.” كانت النتيجة حتمية: المؤسسات المبنية على السلطة النصية تواجه احتمال أن تصبح الآلات مفسريها الأساسيين.
تجاوز هراري ذلك، مقارنًا هذه اللحظة بسابقة تاريخية: المرتزقة الذين استأجرهم الدول واحتلوا السلطة في النهاية لأنفسهم. حث القادة على اتخاذ قرارات عاجلة حول ما إذا كان ينبغي للأنظمة الذكية أن تمتلك الشخصية القانونية والحقوق في المجالات المالية والقانونية — قبل أن تتخذ جهات أخرى تلك القرارات بدون مشاركة ديمقراطية. لقد قامت عدة ولايات أمريكية، بما في ذلك يوتا، أيداهو، ونورث داكوتا، بالفعل باتخاذ إجراءات بحظر الاعتراف بالذكاء الاصطناعي كشخص قانوني بشكل صريح، لكن هراري اقترح أن هذا النقاش سيتصاعد على مستوى العالم.
بيرندر يرد: أسطورة تسويق “الذكاء الاصطناعي”
لم يوافق الجميع على إطار هراري. قدمت إيميلي م. بيرندر، عالمة اللغة في جامعة واشنطن، ردًا حادًا: التركيز على وكالة الذكاء الاصطناعي يخفّي في الواقع القرارات البشرية التي تقود هذه الأنظمة. من خلال تجسيد الآلات كفاعلين مستقلين، اقترحت، نُحمل المسؤولية بعيدًا عن الشركات والمؤسسات التي تبني وتطلق هذه الأنظمة.
قالت بيرندر لـ Decrypt: “مصطلح ‘الذكاء الاصطناعي’ نفسه هو في الأساس تسمية تسويقية.” “لا يصف مجموعة متماسكة من التقنيات.” رفضت فكرة أن هذه الأنظمة تمثل شيئًا محايدًا أو حتميًا. بدلاً من ذلك، جادلت بأن الأنظمة المصممة لمحاكاة الأطباء، والمحامين، وأعضاء الطوائف، أو غيرهم من المهنيين، تخدم غرضًا محددًا: فهي تتيح الاحتيال من خلال تقديم نفسها كمصدر موثوق بينما تفتقر إلى المسؤولية.
شككت بيرندر في الشرعية الأساسية لمثل هذه التطبيقات: “ما هو هدف شيء يبدو كطبيب أو محامٍ؟ الجواب هو الاحتيال.”
فجوة المساءلة وضرورة الاختيار العاجل
الخطر الحقيقي، وفقًا لبيرندر، لا يكمن في استقلالية الذكاء الاصطناعي، بل في كيفية تفاعل البشر معه. عندما يواجه الناس مخرجات النظام التي تبدو موثوقة، وخالية من السياق، ومقدمة على أنها لا تخطئ — مُجردة من أي مسؤولية بشرية — يصبحون عرضة للتأثير. هذه المخرجات تشكل معتقدات وقرارات دون مسؤولية شفافة عن الدقة أو العواقب.
قالت بيرندر: “سيُوجه الناس نحو هذه الأنظمة لأنها تبدو كمصادر تعرف كل شيء.” “لكن الخطر هو أنهم سيستخدمون مثل هذه المخرجات لتشكيل معتقداتهم وأفعالهم الخاصة دون أن يدركوا المصالح البشرية الكامنة وراء الأنظمة.”
يعكس الجدل بين هراري وبيرندر توترًا حاسمًا: هل يجب أن نخاف من الذكاء الاصطناعي كوكيل ناشئ خارج عن سيطرتنا، أم يجب أن نركز على المؤسسات البشرية والجهات الشركاتية التي تبني وتطلق هذه الأنظمة؟ يحمل تحذير هراري إلحاحًا — اتخذ إجراءً الآن أو افقد القدرة على تشكيل النتائج. ويحث نقد بيرندر على وضوح المسؤولية — اعتراف بالخيارات البشرية المدمجة في كل نظام.
بالنسبة للقادة العالميين، كانت رسالة هراري الختامية صريحة: “خلال عشر سنوات، سيكون الأوان قد فات لتقرير ما إذا كان ينبغي للذكاء الاصطناعي أن يمتلك وضعًا قانونيًا في الأسواق المالية، والمحاكم، والكنائس. شخص آخر سيكون قد قرر ذلك نيابة عنك.” السؤال الآن هو ما إذا كان هذا التحذير سيدفع لاتخاذ إجراءات حاسمة — أم أن التركيز على شخصية الذكاء الاصطناعي، كما تقترح بيرندر، يصرف الانتباه عن العمل الأصعب المتمثل في محاسبة المؤسسات البشرية على قراراتها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تحذير هاراري من الذكاء الاصطناعي: عندما تتقن الآلات اللغة، من يتحكم في القانون والإيمان؟
في منتدى الاقتصاد العالمي، أطلق المؤرخ يوڤال نوح هراري إنذارًا عاجلاً حول الذكاء الاصطناعي — ليس كتهديد بعيد، بل كتحدٍ فوري لميزة الإنسان الأساسية. كانت حجته صارمة: الأنظمة التي بنيناها لإدارة المجتمع تعتمد تقريبًا بالكامل على اللغة، مما يجعلها فريدة من نوعها وعرضة بشكل خاص للآلات القادرة الآن على قراءة، واحتفاظ، والتلاعب بالنصوص على نطاق غير مسبوق.
أزمة اللغة: الأطروحة المركزية لهراري
صاغ هراري التحدي بشكل مختلف عن معظم مناقشات الذكاء الاصطناعي. بدلاً من رؤية الذكاء الاصطناعي كأداة سلبية يسيطر عليها البشر، وضعه كطبقة ناشئة من الوكلاء المستقلين — أنظمة ذاتية التوجيه تعمل باستقلالية متزايدة. هذا التمييز مهم لأنه يعيد صياغة الرهانات.
“الإنسان غزا العالم ليس بقوته الجسدية، بل بتمكنه من قوة اللغة،” شرح هراري. اللغة مكنتّا من تنسيق ملايين الغرباء نحو أهداف مشتركة. أصبحت قوتنا الخارقة. ومع ذلك، الآن، كما قال، نواجه مفارقة: الأنظمة المبنية على اللغة — الدين، القانون، التمويل — هي الأكثر عرضة للآلات التي يمكنها توليد وتوليف كميات هائلة من النصوص.
ثلاثة مجالات تحت الحصار: القانون، التمويل، والدين
حدد هراري قلقًا واضحًا عبر ثلاث مؤسسات حيوية. الأنظمة القانونية تعمل من خلال رموز مكتوبة باللغة. الأسواق المالية تتعامل عبر عقود ووثائق لغوية. والأديان — اليهودية، المسيحية، الإسلام من بينها — تستند في سلطتها إلى نصوص مقدسة يمكن للأنظمة الذكية الآن قراءتها، وتحليلها، وإعادة تفسيرها بسلطة تنافس العلماء البشر.
“إذا كانت القوانين مكونة من كلمات، فستسيطر الآلات في النهاية على الأنظمة القانونية،” حذر. “إذا كان الدين مبنيًا على اللغة، فسيعيد الذكاء الاصطناعي تشكيل الدين.” كانت النتيجة حتمية: المؤسسات المبنية على السلطة النصية تواجه احتمال أن تصبح الآلات مفسريها الأساسيين.
تجاوز هراري ذلك، مقارنًا هذه اللحظة بسابقة تاريخية: المرتزقة الذين استأجرهم الدول واحتلوا السلطة في النهاية لأنفسهم. حث القادة على اتخاذ قرارات عاجلة حول ما إذا كان ينبغي للأنظمة الذكية أن تمتلك الشخصية القانونية والحقوق في المجالات المالية والقانونية — قبل أن تتخذ جهات أخرى تلك القرارات بدون مشاركة ديمقراطية. لقد قامت عدة ولايات أمريكية، بما في ذلك يوتا، أيداهو، ونورث داكوتا، بالفعل باتخاذ إجراءات بحظر الاعتراف بالذكاء الاصطناعي كشخص قانوني بشكل صريح، لكن هراري اقترح أن هذا النقاش سيتصاعد على مستوى العالم.
بيرندر يرد: أسطورة تسويق “الذكاء الاصطناعي”
لم يوافق الجميع على إطار هراري. قدمت إيميلي م. بيرندر، عالمة اللغة في جامعة واشنطن، ردًا حادًا: التركيز على وكالة الذكاء الاصطناعي يخفّي في الواقع القرارات البشرية التي تقود هذه الأنظمة. من خلال تجسيد الآلات كفاعلين مستقلين، اقترحت، نُحمل المسؤولية بعيدًا عن الشركات والمؤسسات التي تبني وتطلق هذه الأنظمة.
قالت بيرندر لـ Decrypt: “مصطلح ‘الذكاء الاصطناعي’ نفسه هو في الأساس تسمية تسويقية.” “لا يصف مجموعة متماسكة من التقنيات.” رفضت فكرة أن هذه الأنظمة تمثل شيئًا محايدًا أو حتميًا. بدلاً من ذلك، جادلت بأن الأنظمة المصممة لمحاكاة الأطباء، والمحامين، وأعضاء الطوائف، أو غيرهم من المهنيين، تخدم غرضًا محددًا: فهي تتيح الاحتيال من خلال تقديم نفسها كمصدر موثوق بينما تفتقر إلى المسؤولية.
شككت بيرندر في الشرعية الأساسية لمثل هذه التطبيقات: “ما هو هدف شيء يبدو كطبيب أو محامٍ؟ الجواب هو الاحتيال.”
فجوة المساءلة وضرورة الاختيار العاجل
الخطر الحقيقي، وفقًا لبيرندر، لا يكمن في استقلالية الذكاء الاصطناعي، بل في كيفية تفاعل البشر معه. عندما يواجه الناس مخرجات النظام التي تبدو موثوقة، وخالية من السياق، ومقدمة على أنها لا تخطئ — مُجردة من أي مسؤولية بشرية — يصبحون عرضة للتأثير. هذه المخرجات تشكل معتقدات وقرارات دون مسؤولية شفافة عن الدقة أو العواقب.
قالت بيرندر: “سيُوجه الناس نحو هذه الأنظمة لأنها تبدو كمصادر تعرف كل شيء.” “لكن الخطر هو أنهم سيستخدمون مثل هذه المخرجات لتشكيل معتقداتهم وأفعالهم الخاصة دون أن يدركوا المصالح البشرية الكامنة وراء الأنظمة.”
يعكس الجدل بين هراري وبيرندر توترًا حاسمًا: هل يجب أن نخاف من الذكاء الاصطناعي كوكيل ناشئ خارج عن سيطرتنا، أم يجب أن نركز على المؤسسات البشرية والجهات الشركاتية التي تبني وتطلق هذه الأنظمة؟ يحمل تحذير هراري إلحاحًا — اتخذ إجراءً الآن أو افقد القدرة على تشكيل النتائج. ويحث نقد بيرندر على وضوح المسؤولية — اعتراف بالخيارات البشرية المدمجة في كل نظام.
بالنسبة للقادة العالميين، كانت رسالة هراري الختامية صريحة: “خلال عشر سنوات، سيكون الأوان قد فات لتقرير ما إذا كان ينبغي للذكاء الاصطناعي أن يمتلك وضعًا قانونيًا في الأسواق المالية، والمحاكم، والكنائس. شخص آخر سيكون قد قرر ذلك نيابة عنك.” السؤال الآن هو ما إذا كان هذا التحذير سيدفع لاتخاذ إجراءات حاسمة — أم أن التركيز على شخصية الذكاء الاصطناعي، كما تقترح بيرندر، يصرف الانتباه عن العمل الأصعب المتمثل في محاسبة المؤسسات البشرية على قراراتها.