أستراليا، الهيئة التنظيمية للأمن السيبراني، حذرت مؤخرًا علنًا من تزايد الشكاوى المتعلقة باستخدام صور غير مصرح بها في روبوت الدردشة الذكي Grok، خاصة تلك التي تتعلق بإنشاء صور ذات طابع جنسي دون موافقة، والتي أصبحت نقطة خطر رئيسية في تنظيم الذكاء الاصطناعي التوليدي حاليًا. أشارت هيئة الأمن السيبراني المستقلة في أستراليا eSafety إلى أن عدد الشكاوى المرتبطة بـ Grok قد تضاعف خلال الأشهر القليلة الماضية، وتشمل أنواعًا متعددة من انتهاكات الصور التي تتعلق بالأحداث والأشخاص البالغين.
قالت Julie Inman Grant، مفوضة الأمن السيبراني في أستراليا، إن بعض الشكاوى قد تتعلق بمحتوى استغلال جنسي للأطفال، بينما تتعلق أخرى بإساءات تعتمد على الصور تعرض البالغين. وأكدت على LinkedIn أن الذكاء الاصطناعي التوليدي يُستخدم بشكل متزايد في تصوير واستغلال الآخرين، خاصة عند التعامل مع الأطفال، مما يشكل تحديًا خطيرًا للمجتمع والنظام التنظيمي. مع تزايد واقعية المحتوى الذي يُنتجه الذكاء الاصطناعي، تزداد أيضًا صعوبة التعرف على الأدلة وجمعها.
تم تطوير Grok بواسطة شركة xAI، وهي شركة ذكاء اصطناعي تابعة لإيلون ماسك، ودمجت مباشرة في منصة X، مما يسمح للمستخدمين بتعديل وإنشاء الصور. بالمقارنة مع نماذج الذكاء الاصطناعي السائدة الأخرى، يُصنف Grok كمنتج أكثر “تقدمًا”، قادر على إنتاج محتوى غالبًا ما ترفضه النماذج الأخرى. سابقًا، أطلقت xAI وضعًا يمكنه إنشاء محتوى فاضح، وهو ما جذب اهتمام الجهات التنظيمية بشكل كبير.
أشارت Julie Inman Grant إلى أنه وفقًا للقوانين الأسترالية الحالية، يجب على جميع الخدمات عبر الإنترنت اتخاذ تدابير فعالة لمنع نشر مواد استغلال جنسي للأطفال، سواء كانت من إنتاج الذكاء الاصطناعي أم لا. وأكدت على أن الشركات يجب أن تدمج آليات حماية أمنية طوال دورة حياة تصميم ونشر وتشغيل منتجات الذكاء الاصطناعي التوليدي، وإلا فإنها ستواجه مخاطر التحقيق والتنفيذ القانوني.
وفيما يتعلق بمشكلة التزييف العميق، اتخذت أستراليا موقفًا أكثر صرامة. دفعت الجهات التنظيمية مؤخرًا تحديثات تشريعية متعددة، بهدف سد الثغرات في القوانين الحالية التي تعوق مكافحة المحتوى المُنشأ بواسطة الذكاء الاصطناعي بدون إذن. اقترح السيناتور المستقل David Pocock مشروع قانون يفرض غرامات عالية على الأفراد والشركات عند نشر محتوى تزييف عميق، بهدف تعزيز الردع.
بشكل عام، يعكس حادث إساءة استخدام الصور بواسطة الذكاء الاصطناعي Grok مشكلة تأخر التنظيم في ظل التوسع السريع لتقنيات الذكاء الاصطناعي التوليدي. مع تصدر قضايا التزييف العميق، وإساءة استخدام صور الذكاء الاصطناعي، وحماية الأطفال، كقضايا عالمية، قد توفر توجهات أستراليا التنظيمية مرجعًا هامًا للدول الأخرى، كما تشير إلى أن عصر الامتثال للذكاء الاصطناعي التوليدي يسرع في الوصول.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الهيئات التنظيمية في أستراليا تصدر تحذيراً، ارتفاع شكاوى إساءة استخدام صور الذكاء الاصطناعي من Grok يؤدي إلى تصعيد التنظيم
أستراليا، الهيئة التنظيمية للأمن السيبراني، حذرت مؤخرًا علنًا من تزايد الشكاوى المتعلقة باستخدام صور غير مصرح بها في روبوت الدردشة الذكي Grok، خاصة تلك التي تتعلق بإنشاء صور ذات طابع جنسي دون موافقة، والتي أصبحت نقطة خطر رئيسية في تنظيم الذكاء الاصطناعي التوليدي حاليًا. أشارت هيئة الأمن السيبراني المستقلة في أستراليا eSafety إلى أن عدد الشكاوى المرتبطة بـ Grok قد تضاعف خلال الأشهر القليلة الماضية، وتشمل أنواعًا متعددة من انتهاكات الصور التي تتعلق بالأحداث والأشخاص البالغين.
قالت Julie Inman Grant، مفوضة الأمن السيبراني في أستراليا، إن بعض الشكاوى قد تتعلق بمحتوى استغلال جنسي للأطفال، بينما تتعلق أخرى بإساءات تعتمد على الصور تعرض البالغين. وأكدت على LinkedIn أن الذكاء الاصطناعي التوليدي يُستخدم بشكل متزايد في تصوير واستغلال الآخرين، خاصة عند التعامل مع الأطفال، مما يشكل تحديًا خطيرًا للمجتمع والنظام التنظيمي. مع تزايد واقعية المحتوى الذي يُنتجه الذكاء الاصطناعي، تزداد أيضًا صعوبة التعرف على الأدلة وجمعها.
تم تطوير Grok بواسطة شركة xAI، وهي شركة ذكاء اصطناعي تابعة لإيلون ماسك، ودمجت مباشرة في منصة X، مما يسمح للمستخدمين بتعديل وإنشاء الصور. بالمقارنة مع نماذج الذكاء الاصطناعي السائدة الأخرى، يُصنف Grok كمنتج أكثر “تقدمًا”، قادر على إنتاج محتوى غالبًا ما ترفضه النماذج الأخرى. سابقًا، أطلقت xAI وضعًا يمكنه إنشاء محتوى فاضح، وهو ما جذب اهتمام الجهات التنظيمية بشكل كبير.
أشارت Julie Inman Grant إلى أنه وفقًا للقوانين الأسترالية الحالية، يجب على جميع الخدمات عبر الإنترنت اتخاذ تدابير فعالة لمنع نشر مواد استغلال جنسي للأطفال، سواء كانت من إنتاج الذكاء الاصطناعي أم لا. وأكدت على أن الشركات يجب أن تدمج آليات حماية أمنية طوال دورة حياة تصميم ونشر وتشغيل منتجات الذكاء الاصطناعي التوليدي، وإلا فإنها ستواجه مخاطر التحقيق والتنفيذ القانوني.
وفيما يتعلق بمشكلة التزييف العميق، اتخذت أستراليا موقفًا أكثر صرامة. دفعت الجهات التنظيمية مؤخرًا تحديثات تشريعية متعددة، بهدف سد الثغرات في القوانين الحالية التي تعوق مكافحة المحتوى المُنشأ بواسطة الذكاء الاصطناعي بدون إذن. اقترح السيناتور المستقل David Pocock مشروع قانون يفرض غرامات عالية على الأفراد والشركات عند نشر محتوى تزييف عميق، بهدف تعزيز الردع.
بشكل عام، يعكس حادث إساءة استخدام الصور بواسطة الذكاء الاصطناعي Grok مشكلة تأخر التنظيم في ظل التوسع السريع لتقنيات الذكاء الاصطناعي التوليدي. مع تصدر قضايا التزييف العميق، وإساءة استخدام صور الذكاء الاصطناعي، وحماية الأطفال، كقضايا عالمية، قد توفر توجهات أستراليا التنظيمية مرجعًا هامًا للدول الأخرى، كما تشير إلى أن عصر الامتثال للذكاء الاصطناعي التوليدي يسرع في الوصول.