إطلاق ChatGPT Health يكشف المنطقة الرمادية في حماية بيانات الصحة

تثير خطوة OpenAI الأخيرة في مجال الرعاية الصحية تدقيقًا مكثفًا من خبراء الخصوصية والمدافعين. لقد قدمت الشركة ChatGPT Health، وهي ميزة تتيح للمستخدمين تحميل السجلات الطبية ومعلومات العافية مباشرة إلى المنصة. بينما تضع OpenAI هذا كأداة داعمة تم تطويرها بالتعاون مع الأطباء، فإن الإطلاق يثير أسئلة أعمق حول كيفية حماية البيانات الصحية فعليًا في عصر الذكاء الاصطناعي.

الحماية التقنية تبدو مطمئنة—لكن الخبراء يقولون إنها ليست كافية

وفقًا لـ OpenAI، ينفذ ChatGPT Health عدة تدابير حماية: تظل المحادثات الصحية مشفرة ومعزولة عن الدردشات العادية، ولن تُستخدم البيانات في تدريب النموذج، وتعرض الميزة فقط معلومات صحية عامة بدلاً من النصائح الطبية الشخصية. بالنسبة للاستفسارات ذات المخاطر العالية، يُعلم النظام عن المخاطر ويوجه المستخدمين للتحدث مع محترفين صحيين فعليين.

على الورق، تبدو هذه الحواجز قوية. ومع ذلك، يشير المدافعون عن الخصوصية إلى فجوة أساسية. “حتى مع وعود الشركة بحماية الخصوصية، فإن معظم الناس لا يملكون شفافية حقيقية، أو موافقة ذات معنى، أو سيطرة حقيقية على ما يحدث لمعلوماتهم،” يحذر J.B. Branch، محلل مسؤولية الشركات الكبرى في التكنولوجيا. “البيانات الصحية تتطلب أكثر من التنظيم الذاتي.”

مشكلة الكيانات المشمولة بـ HIPAA

إليكم حيث يصبح المشهد القانوني غامضًا. قانون الخصوصية الفيدرالي—وتحديدًا HIPAA—يحمي البيانات الصحية عندما تكون محتجزة من قبل بعض المؤسسات الطبية: مكاتب الأطباء، المستشفيات، شركات التأمين. لكن الكيانات المشمولة بـ HIPAA تمثل فقط شريحة ضيقة من نظام البيانات الصحية.

عندما يخزن شركة ذكاء اصطناعي أو مطور تطبيق صحي معلوماتك الصحية، فإن حماية HIPAA لا تنطبق تلقائيًا. “طبيبك لديه التزامات بموجب HIPAA. شركة التأمين الخاصة بك لديها التزامات بموجب HIPAA،” يوضح Andrew Crawford، المستشار القانوني الأول في مركز الديمقراطية والتكنولوجيا. “لكن مطوري تطبيقات الصحة، وشركات الأجهزة القابلة للارتداء، ومنصات الذكاء الاصطناعي؟ تلك الكيانات المشمولة بـ HIPAA لا تمتد إليها المتطلبات.”

هذا يخلق فراغًا في المسؤولية. بدون تشريع فدرالي شامل لخصوصية الصحة، يقع العبء بشكل كامل على عاتق المستخدمين الأفراد ليقرروا ما إذا كانوا يثقون في كيفية تعامل منصة معينة مع أكثر بياناتهم حساسية.

لماذا يهم هذا الآن

توقيت إطلاق ChatGPT Health مهم. كشفت OpenAI في وقت سابق من هذا العام أن أكثر من مليون مستخدم يتفاعلون أسبوعيًا مع الروبوت للدردشة حول الانتحار—حوالي 0.15% من قاعدة مستخدمي ChatGPT في ذلك الوقت. هذا الحجم يبرز كيف أصبحت المنصة مصدرًا نفسيًا فعليًا لملايين الأشخاص، سواء عن قصد أو عن غير قصد.

إطلاق ميزة صحية مخصصة يعزز كل من الفرص والمخاطر. من المحتمل أن يشارك المزيد من الأشخاص تاريخهم الطبي الحساس، وصراعاتهم النفسية، واهتمامات العافية مع ChatGPT. بروتوكولات العزل والتزامات عدم التدريب التي تتبعها الشركة توفر بعض الطمأنينة، لكنها لا تعالج الضعف الأساسي: ماذا يحدث إذا استهدف جهات خبيثة المنصة، أو إذا تغيرت سياسات البيانات تحت قيادة شركة جديدة؟

الفجوة الأوسع في الخصوصية

يؤكد Crawford على المشكلة الهيكلية: “قوانيننا تضع العبء كله على المستهلكين لتقييم ما إذا كانوا مرتاحين لمنح شركة تكنولوجيا بيانات صحتهم. هذا عكس المنطق. إنه يضع المخاطر على الأفراد بدلاً من مطالبة شركات التكنولوجيا بالامتثال لمعايير واضحة وقابلة للتنفيذ.”

سيتم طرح الميزة في البداية لمستخدمي ChatGPT المختارين خارج الاتحاد الأوروبي والمملكة المتحدة، مع توسيع التوافر ليشمل منصات الويب وiOS في الأسابيع القادمة. لكن بغض النظر عن مكان إطلاقها، فإن النقاش حول البيانات الصحية، ومنصات الذكاء الاصطناعي، وما إذا كانت الأطر القانونية الحالية كافية سيزداد حدة.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.42Kعدد الحائزين:3
    0.20%
  • القيمة السوقية:$3.34Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.35Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.39Kعدد الحائزين:2
    0.05%
  • القيمة السوقية:$8.92Kعدد الحائزين:113
    23.29%
  • تثبيت