بقلم فو يون تشي
بروكسل (رويترز) – قالت هيئة مراقبة الخصوصية في فرنسا يوم الخميس إنها ستتساءل عن ديبسيك لاكتساب فكرة أفضل عن كيفية عمل نظام AI في بدء التشغيل الصيني وأي مخاطر خصوصية محتملة للمستخدمين.
اجتذب Deepseek اهتمامًا عالميًا بعد الكتابة في ورقة الشهر الماضي بأن تدريب Deepseek-V3 يتطلب أقل من 6 ملايين دولار من طاقة الحوسبة من رقائق Nvidia H800.
الأخبار الموثوقة والمباري اليومية ، مباشرة في صندوق الوارد الخاص بك
شاهد بنفسك-Yodel هو مصدر الانتقال للأخبار اليومية والترفيه والشعور بالشعور.
وقال متحدث باسم الوكالة الدولية للطاقة الفرنسية: “تقوم إدارة الذكاء الاصطناعى في CNIL حاليًا بتحليل هذه الأداة”.
وأضافوا “من أجل فهم أفضل لكيفية عمل نظام الذكاء الاصطناعي هذا والمخاطر من حيث حماية البيانات ، ستستجيب CNIL الشركة التي تقدم Deepseek chatbot”.
تعد هيئة الرقابة الفرنسية واحدة من أكثر المناطق نشاطًا في أوروبا وغرمت منصات Google و META ، من بين أمور أخرى.
قالت هيئة حماية البيانات في إيطاليا في وقت سابق من هذا الأسبوع إنها كانت تبحث عن إجابات من Deepseek حول استخدامها للبيانات الشخصية ، بينما قالت لجنة حماية البيانات في أيرلندا إنها طلبت معلومات من الشركة الصينية حول معالجة البيانات التي أجريت فيما يتعلق بالمستخدمين الأيرلنديين.
كانت أوروبا حماية بشكل خاص لحقوق الخصوصية ، ويعتبر لائحة حماية البيانات العامة (GDPR) على نطاق واسع واحدة من أكثر قوانين خصوصية البيانات شمولية وصارمة في العالم.
يمكن أن تؤدي انتهاكات الناتج المحلي الإجمالي إلى غرامات تصل إلى 4 ٪ من إجمالي دوران الشركة العالمي.
وافق الاتحاد الأوروبي المؤلف من 27 دولة العام الماضي على قواعد تاريخي تفرض التزامات شفافية صارمة على أنظمة الذكاء الاصطناعى عالية الخطورة والأخف وزنا لنماذج الذكاء الاصطناعي للأغراض العامة.
تتراوح غرامات الانتهاكات بين 7.5 مليون يورو ، أو 1.5 ٪ من دوران ، إلى 35 مليون يورو أو 7 ٪ من دوران عالمي حسب نوع الانتهاكات.
(شارك في تقارير فو يون تشي ؛ تحرير ديفيد غودمان وألكساندر سميث)
اترك ردك