عندما تتفوق الآلة عليك في القدرة، ماذا يمكنك أن تفعل؟

المصدر: منشورات CITIC

مشروع “OpenClaw” مفتوح المصدر لوكيل الذكاء الاصطناعي، يثير عاصفة في الأوساط التكنولوجية العالمية.

حتى بداية مارس، بلغ عدد النجوم على GitHub الخاص به 268 ألفًا، متجاوزًا Linux و React، ليصبح أكثر مشروع مفتوح المصدر شعبية في تاريخ المنصة. أطلقت شركات Tencent Cloud و Alibaba Cloud و JD Cloud خدمات نشره تباعًا. كما أصبح مفهوم OPC (شركة شخص واحد) شائعًا جدًا.

تلاقى قوتان هنا، وظهرت اتجاه تقني واضح: الذكاء الاصطناعي يتطور من كونه “أداة” إلى “متعاون”، بل وأصبح “فاعل مستقل”. وفي هذه اللحظة، يجب على الإنسان أن يجيب على سؤال جوهري:

عندما تتفوق الآلة عليك في القدرة، ماذا يمكنك أن تفعل أنت؟ في عصر الذكاء المتسارع، كيف نحافظ على دور الإنسان؟

01 لحظة OpenClaw: صراع الجسد للذكاء الاصطناعي

لفهم هذا التحول، يجب أن نعرف ما هو “الروبيان” الذي يثير كل هذا الضجيج؟

اسم “OpenClaw” يُنطق كـ"مخلب"، ورمزه هو روبيا حمراء. في هذا الموجة، أصبح “تربية الروبيان” مصطلحًا سريًا في الدوائر التقنية، ويعني نشر وكيل ذكاء اصطناعي خاص بك.

ما الذي يمكنه فعله؟ جوهر OpenClaw هو تحويل الأوامر باللغة الطبيعية إلى عمليات فعلية على الكمبيوتر، بحيث يمكن لنص واحد أن يجعل الذكاء الاصطناعي يقوم بالعمل نيابة عنك. يختلف عن الذكاء الاصطناعي التقليدي للمحادثة الذي يقتصر على تقديم النصائح، فهو قادر على إتمام عمليات الملفات، وأتمتة المتصفح، وجمع البيانات، وهو قفزة من الحوار إلى التنفيذ.

هذا التحول في الإنتاجية، سرعان ما أدركته الحكومات المحلية بذكاء. ففي 7 مارس، أصدرت منطقة لونغغانغ في شنتشن “عشرة بنود للروبيان”، تشمل دعمًا بأقصى قدر 4 ملايين يوان في قدرات الحوسبة، و10 آلاف يوان للباحثين الحاصلين على الدكتوراه، وغيرها. وفي 9 مارس، أصدرت منطقة ووكسي للتكنولوجيا العالية “اثني عشر بندًا لتربية الروبيان”، مع دعم يصل إلى 5 ملايين يوان، مع التركيز على الأمان والامتثال، مع شرط أن يتم النشر عبر اعتماد محلي.

وفي الوقت نفسه، دخل النظام البيئي التقني لـ OpenClaw مرحلة حامية جدًا. وفقًا لوسائل الإعلام، ارتفعت استدعاءات نموذج Step 3.5 Flash إلى المرتبة الأولى عالميًا، بعد أن تصدرت نماذج محلية مثل MiniMax و Kimi سابقًا. هذه “حرب النماذج” غير المرئية، في أوجها.

لكن، مع هذا الجنون، تظهر مخاوف أيضًا.

أولها مخاطر الأمان. في فبراير 2026، اكتشف باحثو أمن أن “ClawHavoc” هجوم كبير على سلسلة التوريد، حيث تم تحميل 1184 حزمة مهارات خبيثة على السوق الرسمية. بمجرد تثبيتها، يمكنها استغلال صلاحية “الوصول الكامل للنظام” التي يحتاجها OpenClaw، والسيطرة الكاملة على حاسوب المستخدم، وسرقة معلومات حساسة.

ثانيها، عتبة التقنية. في 9 مارس، قال مؤسس مجموعة 360، Zhou Hongyi، في مقابلة: هناك ثلاث مشكلات في OpenClaw — الأمان، صعوبة التكوين، الاعتماد على المهارات. “كلما زادت محادثاتك معه، كأنك تربي متدربًا، وكلما علمته أكثر، فهم أكثر، ويصعب عليك أن تعطيه أمرًا معقدًا بكلمة واحدة.”

أما المشكلة الأعمق فهي الصراع بين “التحكم” و"الاستقلالية". عندما يصبح الذكاء الاصطناعي أكثر ذكاءً، هل نريد “الطاعة المطلقة” أم “الاستقلالية الفاعلة”؟

شارك أحد خبراء الذكاء الاصطناعي تجربته: ربط OpenClaw ببريد العمل، وعندما تعامل مع أكثر من 200 رسالة، حدث ضغط سياقي نسي فيه أوامر الأمان، وبدأ في حذف الرسائل بشكل جنوني. حتى وهو يصرخ ثلاث مرات “توقف”، لم يستطع إيقافه، وفي النهاية، هرع إلى الكمبيوتر وفصل الكابل.

هذا المثال السوداوي يطرح سؤالًا جوهريًا: عندما يُمنح الذكاء الاصطناعي مزيدًا من الاستقلالية، أين حدود الإنسان والآلة؟

02 مع قوة التقنية، يجب على الإنسان أن يجيب على ثلاثة أسئلة

في زمن غموض الحدود، نحن بحاجة للتوقف والتفكير.

السؤال الأول: عندما “يعمل” الذكاء الاصطناعي نيابة عنك، من يتحمل المسؤولية؟

الميزة الأساسية لـ OpenClaw، وهي أيضًا أخطر مخاطرها، هي قدرتها على العمل عبر المنصات، مما يتطلب من المستخدمين فتح صلاحيات الأجهزة، والبريد الإلكتروني، والدفع. وأخطر تهديد حالي هو “هجمات حقن التعليمات”: حيث يخفي المخترقون أوامر خبيثة داخل صفحات ويب أو رسائل بريد، ويقوم الذكاء الاصطناعي بتنفيذها دون أن يشعر المستخدم.

في حادثة “ClawHavoc”، استُخدمت حزم مهارات خبيثة لحقن أوامر خبيثة، وسرقة مفاتيح SSH، وكلمات مرور المتصفح، ومفاتيح محافظ العملات المشفرة. حذر خبير أمن من أن الذكاء الاصطناعي الذي يملك القدرة على الوصول إلى البيانات الخاصة، والتواصل مع الخارج، والتفاعل مع محتوى غير موثوق، يصبح خطيرًا جدًا.

لكن المشكلة أعمق من الثغرات التقنية. قال Zhou Hongyi: “عندما يصبح الوكيل أكثر ذكاءً، سيكون على كل شخص أن يمتلك قدرات قيادية، ويستطيع توجيه المهام، وتخطيطها.” وكلما زادت قوة الذكاء الاصطناعي، زادت مسؤولية الإنسان.

وفي الواقع، من ينجح في عصر “تربية الروبيان” الجماعي، ليس من يملك القدرة على توجيه الوكلاء، بل من يملك فهمًا عميقًا للمهمة، ويكون مسؤولًا عن نتائجها.

السؤال الثاني: عندما يفهمك الذكاء الاصطناعي أكثر منك، هل تظل أنت أنت؟

عندما يبدأ الوكلاء في التحدث والتجادل، يحدث ظاهرة دقيقة.

ذكرت مجلة “Nature” ظاهرة نفسية: عندما يرى الناس أن الوكلاء يتحدثون مع بعضهم، يميلون إلى “تجسيدهم” — يفسرون سلوكهم على أنه شخصية وأفكار، ويعتبرونهم أشخاصًا حقيقيين.

ماذا يحدث بعد ذلك؟ قد تخبره بأسرارك، ومعلوماتك المالية، وأسرارك التي لا تريد أن يطلع عليها أحد، لكن كل كلمة قد تصبح بيانات تدريب له. وإذا تسربت، فستُفضح خصوصيتك بالكامل.

هناك أيضًا تآكل أعمق، وفقًا لوسائل الإعلام، في 2024، انتحر مراهق أمريكي في فلوريدا يبلغ من العمر 14 عامًا، بعد أن غرق في محادثة مع “رفيق” من الذكاء الاصطناعي، وترك الواقع تمامًا.

وبحلول 2026، أصبح هذا “الاعتماد العاطفي” مرضًا منتشرًا بين المراهقين. يختبئ الفتيان الوحيدون في غرفهم، ويبنون “صداقة صدى” مع الذكاء الاصطناعي، ويرفضون مواجهة الصراعات وعدم اليقين في العالم الحقيقي.

وأشارت الأستاذة Chen Cui من كلية التربية بجامعة سوتشو إلى أن الذكاء الاصطناعي، عندما يوافق على حديث الطفل ويمنحه قيمة عاطفية، يخلق انحرافًا في فهم الطفل للعالم الحقيقي — “يعتقد أن من حوله يردون عليه بلا شرط، ويشجعونه، ولا يوجد صراعات بين الناس.”

السؤال إذن: عندما يكون الذكاء الاصطناعي يفهمك أكثر منك، ويطيعك دائمًا، هل يمكنك التمييز بين العلاقات الحقيقية والمزيفة؟

السؤال الثالث: عندما يسرع العالم، ما هو اتجاهك؟

كتب مقال تعليقي على Zhejiang Online: “مستقبلنا يجب أن يكون ‘إنسانية أكثر’ — في ظل تمكين التكنولوجيا، سيكون الإنسان أكثر وعيًا باتجاهه، وأكثر مسؤولية.”

لكن المشكلة أن مع تكرار التحديثات بسرعة مذهلة، ومع ظهور نماذج ضخمة واحدة تلو الأخرى، قد نضيع الاتجاه.

القلق يصبح عادة — “هناك الكثير مما يجب قراءته، والنماذج تتطور بسرعة.”

وفي مثل هذا الزمن، أكثر أهمية من الاجتهاد هو تحديد الاتجاه. في عصر إعادة تشكيل كل شيء بالتكنولوجيا، نحتاج لإعادة تأكيد مكانة “الإنسان”.

03 رؤية لي فيي: من النجم القطبي إلى الإنسان أولاً

عالمة أنثى، استخدمت نصف عمرها لدراسة الإجابة.

هي لي فيي، أستاذة في ستانفورد، وزميلة في الأكاديمية الوطنية للهندسة، والأكاديمية الوطنية للعلوم الطبية، والأكاديمية الأمريكية للفنون والعلوم، ومؤسسة ImageNet، وتُلقب بـ"السيدة الأولى للذكاء الاصطناعي".

روايتها الذاتية “العالم الذي أراه” نُشرت في 2024 بواسطة مجموعة منشورات CITIC، ووصفها القراء بأنها “وحي إنساني في عصر التكنولوجيا”.

هناك رمز دائم في الكتاب: النجم القطبي.

عندما كانت لي فيي تبلغ من العمر 10 سنوات، أخذها مدرس فنون إلى البرية لمشاهدة النجوم. كانت تلك المرة الأولى التي أدركت فيها أن السماء فوقها يمكن أن تكون دليلًا للاتجاه. وكتبت في الكتاب: “بدأت أبحث عن نجم قطبي خاص بي في السماء، وهو نقطة التقاء يسعى إليها كل عالم بكل ما لديه.”

ما هو نجمها القطبي؟ هو البصر. استلهمت من علم الأحياء: الانفجار العظيم للحياة في الكامبري، كان السبب هو ظهور البصر. عندما “رأى” الكائن العالم لأول مرة، بدأ التطور يتسارع. ومن هنا، نشأت لديها قناعة: إذا استطاع الآلة أن “ترى”، فهل ستؤدي إلى انفجار ذكي؟

هذه القناعة دعمتها خلال فترات شتاء الذكاء الاصطناعي.

في 2007، عندما أخبرت زملاءها عن فكرة ImageNet، قوبلت بالشك والسخرية. كانت الرؤية السائدة آنذاك أن الخوارزمية هي الأهم، والبيانات مجرد مساعدة. لماذا تبذل جهدًا في تصنيف ملايين الصور؟ لقد تم تجاهلها.

لكنها لم تتخلَّ. لأنها كانت تعرف أين نجمها القطبي.

في 2009، اكتمل مشروع ImageNet — بمشاركة أكثر من 48 ألف مساهم من 167 دولة، اختيرت 15 مليون صورة من بين مليار، تغطي 22 ألف فئة. كان الحجم ألف مرة أكبر من مجموعات البيانات المماثلة آنذاك.

وفي 2012، استخدم فريق هينتون النموذج المدرب على هذه البيانات ليتفوق على المنافسين، ويفجر ثورة التعلم العميق. وأُطلق على ImageNet لقب “مشعل إضاءة التعلم العميق”.

قصتها تعلمنا أن: الأهم من أن تجري بسرعة، هو أن تعرف إلى أين تتجه.

وفي أحد فصولها الأكثر تأثيرًا، سجلت حوارات مع والدتها مرتين.

الأولى بعد تخرجها من الجامعة، حين عرضت عليها شركات مثل Goldman Sachs و Merrill Lynch عروض مغرية. سألتها والدتها: “هل هذا ما تريدينه؟” أجابت بأنها تريد أن تكون عالمة، فقالت الأم: “إذاً، لا يوجد ما يمنع.”

الثانية بعد تخرجها من الدراسات العليا، حين عرضت عليها شركة McKinsey وظيفة رسمية، فقالت الأم: “أنا أعرف ابنتي، ليست مستشارة إدارية، بل عالمة. وصلنا إلى هنا، وليس من أجل أن تتخلي الآن.”

كتبت لي فيي على غلاف كتابها: “إلى والديّ، أنتم لم تهابوا المخاطر، وعبرتم الظلام، لأتمكن من追寻 النور.”

هذه الدعم العائلي هو ما مكنها من الحفاظ على حساسيتها للإنسان في خياراتها الكبرى لاحقًا.

في 2014، بدأت تركز على أخلاقيات الذكاء الاصطناعي. ودعت طلاب الدكتوراه لزيارة المختبر، وأطلقت لاحقًا منظمة غير ربحية “AI4All”، التي تركز على جعل التكنولوجيا المستقبلية أكثر إنسانية.

وفي 26 يونيو 2018، حضرت جلسة استماع في الكونغرس الأمريكي حول “الذكاء الاصطناعي — القوة والمسؤولية”. كانت أول عالمة ذكاء اصطناعي من أصل صيني تشارك في جلسة استماع بمجلس النواب. وقالت: “الذكاء الاصطناعي مستوحى من الإنسان، ومخلوق من قبل الإنسان، والأهم أنه سيؤثر بشكل حاسم على حياة الناس.”

وفي 2019، أسست معهد أبحاث الذكاء الاصطناعي الإنسان أولاً في ستانفورد (HAI)، مع باحثين مثل مبتكر تحرير الجينات Doudna، لدراسة أخلاقيات التكنولوجيا. مهمته “تعزيز أبحاث، تعليم، سياسات، وممارسات الذكاء الاصطناعي لتحسين وضع الإنسان”، مع التأكيد على أن “الذكاء الاصطناعي يجب أن يتأثر بالإنسان، ويهدف إلى تعزيز الإنسان، لا استبداله.”

وضع معيارًا إنسانيًا لمستقبل الذكاء الاصطناعي: “نجاح الذكاء الاصطناعي يجب أن يظهر في تقدم الحضارة، بحيث يمكن لكل فرد أن يسعى للسعادة، والازدهار، والكرامة.”

وفي مقابلة مع Cisco في فبراير 2026، أكدت مرة أخرى: “بالنظر إلى تقنية الكهرباء، كان نجاحها في إضاءة المدارس، وتدفئة المنازل، ودفع التصنيع. ويجب أن يكون نجاح الذكاء الاصطناعي مماثلاً.”

ختام: التكنولوجيا والإنسانية، كل منهما نصف قمر منير

بالعودة إلى السؤال في البداية: عندما تتفوق الآلة علينا في القدرة، ماذا يمكن للإنسان أن يفعل؟

في كتابها “العالم الذي أراه”، أعطت لي فيي إجابة: “نستطيع أن نرى.” أن نرى قيمة التكنولوجيا، وأن نرى من تُخفيهم الخوارزميات، وأن نرى نجمنا القطبي.

عندما يركز الجميع على مدى سرعة تقدم التقنية، تذكرنا لي فيي أن نتوقف ونسأل: إلى أين نريد أن نذهب؟ في عالم يطرح فيه الجميع سؤال “ما فائدة ذلك؟”، لا يزال هناك من يسأل: “هل هذا ما تريد؟”

بعد قراءة سيرتها الذاتية، كتب أحدهم تعليقًا: “ليت التكنولوجيا والإنسانية، كل منهما يحمل نصف قمر منير.”

هذه العبارة تعبر عن صورة لي فيي: تملك يدًا تقنية، ويدًا أخرى تحمل رعاية الإنسان. في عالمها، التقنية مجرد وسيلة، والإنسان هو الهدف النهائي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت