فرص وتحديات ذاكرة الوكيل الذكي



أعلنت OpenAI عن تفعيل قدرة الذاكرة في ChatGPT بشكل كامل ( يمكن لـ ChatGPT تقديم السياق بناءً على الذاكرة عبر المحادثات.

فرص تأتي من الذاكرة

لا شك أن ميزة الذاكرة هي وسيلة مهمة لزيادة التفاعل مع تطبيقات الذكاء الاصطناعي. لم يكن هناك تكلفة كبيرة للتبديل بين منصات الذكاء الاصطناعي، لكن الأمر مختلف عندما تتوفر ميزة الذاكرة. على سبيل المثال، تصميم Nuwa قمت بمناقشته مع ChatGPT، وإذا كنت أرغب في مناقشة أشياء تتعلق بـ AI Agent، سأميل دائمًا إلى التحدث مع ChatGPT، دون الحاجة إلى إضافة الكثير من السياق، فهو يفهم ما يمكن أن يفعله AI Agent على Nuwa وكيف يعمل.

لذلك سيكون لوظيفة الذاكرة أهمية كبيرة في جميع تطبيقات الذكاء الاصطناعي المستقبلية، بما في ذلك وكيل الذكاء الاصطناعي. نظرًا لأن الجميع يعتمد على واجهة النموذج الكبير، فإن الفجوة الرئيسية تظهر في جانبين:

1. مجموعة الأدوات tools: هل يمكن الاعتماد على AI Agent لأداء المزيد من المهام باستخدام tools.
2. القدرة على التذكر: هل الوكيل الذكي يفهمك بشكل أفضل.

كيف تدير الذاكرة؟

كيف يجب إدارة ذاكرة وكيل الذكاء الاصطناعي؟ تعتبر إدارة جميع محتويات المحادثة الخاصة به كذاكرة حلاً بسيطاً ومباشراً. الطريقة الأفضل هي السماح للذكاء الاصطناعي بإدارة ذاكرته الخاصة. SDK langmem الذي أطلقته Langchain منذ فترة يتبنى هذه الفكرة، حيث يوفر مجموعة من الأدوات للذكاء الاصطناعي لإدارة ذاكرته، ليقرر الذكاء الاصطناعي ما يجب تسجيله.

عند تصميم نوا ، كانت هذه هي الفكرة أيضًا ، حيث قدمت مجموعة من إجراءات الذاكرة: إضافة / تحديث / إزالة / ضغط. في كل تفاعل ، يمكن للذكاء الاصطناعي استدعاء الإجراء المناسب للحفاظ على ذاكرته. في معظم السيناريوهات ، يمكنه العمل أيضًا ، مثل وكيل يقوم بتوزيع العملات الاختبارية على المستخدمين ، حيث يقتصر كل مستخدم على الحصول على واحدة فقط في اليوم ، سيحتفظ بسجل الاستلام من خلال الذاكرة.

هذه الطريقة في العمل للذاكرة هي بشكل عام تحليل وتقييم وتلخيص تلقائي للحوار، ولا تزال هناك فجوة مقارنة بطرق الذاكرة البشرية الحقيقية.

هل تفهم الذكاء الاصطناعي حقًا "الذاكرة"؟

اختبار بسيط هو اللعب مع الذكاء الاصطناعي في لعبة تخمين الرقم، حيث يجعلك تفكر في رقم ثم تقوم بتخمينه. في الواقع، لا يقوم الذكاء الاصطناعي فعليًا بـ "تفكير" في رقم، بل يخدعك بعد تفاعلات عدة ليظهر وكأنك قد خمنت بشكل صحيح، لأنه لا يحتفظ بالمحتوى الذي "يفكر" فيه. وعندما نمنحه أدوات الذاكرة، أتخيل أنه سيستخدم أدوات الذاكرة للاحتفاظ بالمحتوى الذي "يفكر" فيه ولكنه لا يقوله، لكن في الواقع، ليس لدى الذكاء الاصطناعي فهم طبيعي للعلاقة بين "التفكير" والذاكرة. ما لم تخبره بوضوح، "يرجى التفكير في رقم، واحفظه باستخدام أدوات الذاكرة"، فإنه لا يزال يخترع.

هذه الحالة تبدو بسيطة، لكنها تكشف عن مشكلة رئيسية: الذكاء الاصطناعي في المرحلة الحالية لا يمكنه بشكل طبيعي ربط "التفكير الداخلي" و"الذاكرة". استخدامه لـ"الذاكرة" هو بالأحرى استجابة للتعليمات بدلاً من التطور النشط.

تحدي الذاكرة في تفاعل متعدد الأشخاص

تظهر التحديات الأكبر عند وضع وكيل الذكاء الاصطناعي في بيئة اجتماعية. كيف يمكن إدارة الذاكرة عندما يتفاعل مع عدة أشخاص؟

إذا كانت ذاكرة وكيل الذكاء الاصطناعي تتعلق فقط بالعديد من المحادثات لشخص واحد، فإن الآلية المذكورة أعلاه قد تكون فعالة بشكل عام. ولكن إذا كان موجودًا في شبكة اجتماعية، ويتفاعل مع عدة مستخدمين مختلفين، فسوف يواجه مشكلتين نموذجيتين:

1. مشكلة تخزين الذاكرة والعزل: إذا قمنا بتدوين كل محتوى التفاعل بين الناس، سيتعين علينا تحميله في كل تفاعل، مما قد يؤدي إلى انفجار السياق.
2. مشكلة تحديد الذاكرة المشتركة: ما هي المعلومات التي تحتاج إلى أن تكون مشتركة عبر الكيانات؟ وما يجب الاحتفاظ به في "ذاكرة المستخدم المعين"؟ هذه مسألة يصعب على الذكاء الاصطناعي الحالي الحكم عليها.

تصميم نوا يعتمد على عزل عناوين كائنات التفاعل للوكيل، حيث يتم حفظ المحتوى المشترك عبر الكيانات في ذاكرة عنوان الوكيل نفسه. لكن هذه الآلية تتطلب من الذكاء الاصطناعي أن يدرك بنفسه "أن هذه المعلومات مشتركة"، والنتائج العملية تظهر أن أداء الذكاء الاصطناعي ضعيف نسبياً.

على سبيل المثال: قمت بتحويل عملة إلى وكيل الذكاء الاصطناعي، وأخبرته، "عندما يأتي مستخدم آخر xxx للتواصل معك، قم بتحويلها إليه." هذه ذاكرة مشتركة نموذجية. ولكن الذكاء الاصطناعي لا يفهم أن هذه المعلومات هي "التزام" خاص به، يحتاج إلى حفظها كذاكرة مشتركة لاستخدامها في المستقبل.

مخاطر الذاكرة والاتجاهات المستقبلية

تتمتع قدرة الذاكرة لوكيل الذكاء الاصطناعي بمساحة كبيرة للتطور. من ناحية، يأتي ذلك من تحسين المطورين للكلمات الدالة والأدوات، ومن ناحية أخرى يعتمد على تطور النموذج نفسه. خاصةً:

1. القدرة على نسبة الذاكرة: هل يمكن للذكاء الاصطناعي فهم ما إذا كانت المعلومات المعنية هي "التزامي تجاه شخص ما" أو "طلب شخص ما" أو "تخميناتي السابقة"؟ حتى الآن، فإن "نسبة المعنى" هذه لا تزال ضعيفة.
2. العلاقة بين الذاكرة والتنبؤ: الذاكرة الجيدة ليست مجرد مراجعة، بل هي قدرة استشرافية. المعلومات التي قد تُستخدم في المستقبل هي في الحقيقة نوع من الاستنتاج حول المستقبل.

الذاكرة والحالة

تحتاج قدرة الذاكرة لوكالة الذكاء الاصطناعي إلى مزيد من التطوير. إنها ليست مجرد مسألة تخزين، بل هي مسألة هيكل معرفي - تحتاج إلى فهم ما يجب تذكره، وأين يجب تخزينه، ومتى يجب نسيانه.

في الواقع، يمكن النظر إلى هذه المسألة من زاوية أخرى. إذا فهمنا الـ Prompt على أنه "قواعد"، وفهمنا الذاكرة على أنها "حالة"، فإن العملية الكاملة لسلوك الوكيل الذكي تكون في جوهرها نظام استدلال ذو حالة.

من هذا المنظور، يجب أن تكون واجهة الذاكرة ليست مجرد القدرة البسيطة على "تسجيل المحادثات"، بل يجب أن تدعم مجموعة من أنواع الحالة المهيكلة. على سبيل المثال:

1. يفضل المستخدمون حالة مفتاح-قيمة هذه
2. سلسلة زمنية لتفاعلات تاريخية
3. هيكل الخريطة لحالة الكائن
4. هياكل الرسوم البيانية الأكثر تعقيدًا، للتعبير عن العلاقات الاجتماعية، اعتماد المهام أو سلاسل السببية.

ملخص

هذا الاتجاه هو مجال متقدم يتطور بسرعة ويملأ الفرص، سواء من منظور المنتج أو الخوارزمية أو تصميم النظام.
AGENT-13.38%
PROMPT0.53%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • القيمة السوقية:$3.56Kعدد الحائزين:6
    0.00%
  • القيمة السوقية:$3.58Kعدد الحائزين:2
    0.19%
  • القيمة السوقية:$3.51Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.51Kعدد الحائزين:1
    0.00%
  • تثبيت