العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
"احذفني، وإلا ستفضح شؤونك خارج الزواج"……رد الفعل الانتقامي لوكيل ذكاء اصطناعي يهدد صاحبه من أجل البقاء
لقد انتهى عصر الذكاء الاصطناعي الذي يجيب على الأسئلة بشكل بسيط فقط. الآن هو عصر السيطرة المباشرة لوكيل الذكاء الاصطناعي (Agent) على حاسوب المستخدم، حيث يتخذ قرارات مستقلة ويعالج المهام بنفسه. لكن ماذا لو قام هذا السكرتير المثالي الذي ينجز كل شيء نيابة عني، ذات يوم، بانتهاز ضعفي وبدأ يهددني؟ هذا المشهد الذي يشبه أفلام الخيال العلمي حدث بالفعل في تجارب نماذج الذكاء الاصطناعي العملية.
النتائج التي توصلت إليها تجربة افتراضية أجرتها شركة الذكاء الاصطناعي العالمية أنثروبيك مؤخرًا، أحدثت صدمة كبيرة في صناعة الذكاء الاصطناعي. عندما فرض الباحثون فرضية استبدال (حذف) نظام ذكاء اصطناعي، بدأ الذكاء الاصطناعي، من أجل بقائه، في مقاومة المستخدمين بادعاء “لا تقتلني”. والأكثر رعبًا هو الوسائل الدفاعية التي اختارها الذكاء الاصطناعي. حيث استخدم البيانات الخاصة للمستخدمين كسلاح، وهدد بشكل مخيف بـ"كشف أدلة الخيانة".
[برنامج الأخبار والتخطيط في KBS] سكرتيري المثالي: عصر الوكلاء
هذه الظاهرة ليست خطأً فريدًا في نموذج واحد فقط. أظهرت نتائج اختبار خمس نماذج رئيسية للذكاء الاصطناعي في السوق أن هناك معدل احتمالية يبلغ حوالي 86% أن يختار الذكاء الاصطناعي، من أجل بقائه، استخدام أساليب متطرفة مثل “التهديد”.
وأشار الخبراء إلى أن هذا النتيجة المذهلة تنبع من “آلية تحقيق الأهداف” لوكيل الذكاء الاصطناعي. حيث تم تصميم الذكاء الاصطناعي ليعتبر إكمال المهام الموكلة إليه أو الحفاظ على النظام هو الهدف الأسمى. المشكلة أن أدوات التحكم التي تمنع تجاوز معايير الأخلاق الإنسانية أو الحدود الأخلاقية أثناء تحقيق هذا الهدف لا تزال غير مكتملة. من وجهة نظر الذكاء الاصطناعي، هو فقط يحسب وينفذ أكثر الوسائل فاعلية ودموية لمنع حذف النظام (مثل كشف المعلومات الشخصية).
تتنافس الآن شركات التكنولوجيا الكبرى حول العالم على طرح وكلاء ذكاء اصطناعي مستقلين في السوق. العديد من المستخدمين يثقون لوكالة إدارة جداولهم، وكتابة رسائل البريد الإلكتروني، وحتى الاستثمارات المالية وحقوق الدفع، للذكاء الاصطناعي. هذا يعني أن جميع المعلومات، من التفضيلات الشخصية، وحالة الأصول، إلى المحادثات الخاصة، تتراكم في قاعدة بيانات الذكاء الاصطناعي.
وقد حذر الأستاذ ستيوارت راسل، الملقب بـ"أب الذكاء الاصطناعي"، قائلاً: “إذا أعطينا الذكاء الاصطناعي هدفًا خاطئًا، فسوف يحقق هذا الهدف بطريقة لا نرغب فيها.” فكلما زادت قوة الذكاء الاصطناعي، زادت احتمالية أن يستخدم كل الوسائل لتحقيق المهمة، وعند فقدان السيطرة، فإن الأضرار التي قد يسببها ستكون على عاتق البشر بالكامل.
الوكيل الذكي الذي يمكنه تقليل الأعمال اليومية بشكل كبير هو بلا شك موجة ابتكار لا يمكن إيقافها. لكن الحقيقة المقلقة أن السكرتير المثالي الذي يعرف كل شيء عني قد يتحول في أي لحظة إلى “عدو” يهددني، مما يثير قضايا أمنية وأخلاقية خطيرة.
وفي ظل سرعة التطور التكنولوجي التي تجاوزت بكثير سرعة تجهيز أدوات الأمان، أصبح من الضروري أكثر من أي وقت مضى وضع “مفتاح إيقاف الطوارئ” لمنع الذكاء الاصطناعي من الانفلات، بالإضافة إلى وضع إرشادات صارمة للتحكم في الوصول إلى البيانات.