نظارات ميتا الذكية تسجل كل المحادثات لتدريب الذكاء الاصطناعى
تواجه نظارات “راي بان” الذكية من ميتا أزمة خصوصية جديدة، بعد إعلان الشركة عن تغييرات في سياساتها تسمح لها بتسجيل المحادثات لتدريب الذكاء الاصطناعي. تم تطبيق السياسات الجديدة اعتبارًا من أواخر أبريل 2025، حيث يُسمح لميتا بالوصول التلقائي للتسجيلات الصوتية عند استخدام كلمة الإنذار “Hey Meta”. يمكن تعطيل هذه الميزة من الإعدادات، لكن الخيار الافتراضي لتفعيلها يثير مخاوف كبيرة من ناحية الخصوصية.
وعلى الرغم من وعد ميتا بحذف التسجيلات تلقائيًا بعد 90 يومًا، فإن حذف أي تسجيل يؤدي إلى فقدان المحتوى بالكامل، مما يثير المخاوف بشأن قدرة المستخدمين على الوصول إلى بياناتهم. تقول ميتا إن الهدف من الاحتفاظ بهذه التسجيلات هو تحسين تجربة المستخدمين، وتؤكد على استخدام “قواعد خصوصية صارمة” لحماية بياناتهم.
تأتي هذه التغييرات في وقت توسع ميتا في طرح نظاراتها الذكية في الأسواق العالمية، مثل الهند، في ظل ازدياد القلق بشأن انتهاك الخصوصية عبر الأجهزة القابلة للارتداء. ينضم ميتا بذلك إلى قائمة شركات التكنولوجيا التي تستخدم بيانات المستخدمين لتدريب الذكاء الاصطناعي، مع استمرار الجدل حول تلك الممارسات.
وبهذا، تتجدد المخاوف بشأن خصوصية البيانات الشخصية بعدما طرحت ميتا تغييرات في سياساتها تخص تسجيل واستخدام المحادثات عبر نظاراتها الذكية.
من الواضح أن تغييرات سياسات شركة ميتا بشأن نظارات “راي بان” الذكية تثير مخاوف كبيرة حول الخصوصية وحماية البيانات الشخصية. يبدو أن تواجد شركات التكنولوجيا الكبرى مثل ميتا يثير التساؤلات حول كيفية حماية خصوصية المستخدمين وضمان عدم انتهاك حقوقهم. هل تعتقد أن هناك حلول فورية وفعالة لهذه المشكلة؟ هل يمكن للحكومات التعاون مع الشركات التكنولوجية لوضع قوانين وقواعد صارمة لحماية خصوصية المستخدمين؟ كيف يمكن للأفراد الحفاظ على خصوصية بيانات
تشير هذه التغييرات في سياسات ميتا إلى حاجة لإعادة التفكير في كيفية توازن التكنولوجيا الحديثة بين الابتكار وحقوق الخصوصية. يجدر بالشركات الكبرى أن تهتم بشكل أكبر بحماية بيانات المستخدمين وضمان سلامتها، خاصةً في ظل مخاوف الجمهور بشأن الاستخدام السليم للبيانات الشخصية. يجب أن تكون الشفافية والمساءل







