خلي بالك من صوتك.. تحذير من ميزة جديدة في ChatGpt تنسخ الصوت بالنفس

خلي بالك من صوتك.. تحذير من ميزة جديدة في ChatGpt تنسخ الصوت بالنفس
رحلة إلى عالم الخيال تصنعها شركة Open AI المالكة لـChatGpt، عندما أطلقت تطبيقا يحول الكلمات لمقطع فيديو نسخة طبق الأصل من الحقيقة، لكن المرعب في الأمر أن التطبيق مزود بخاصية قادرة على استنساخ الصوت والنفس بين كل كلمة والأخرى وفق تصريحات المهندس أحمد طارق الخبير التكنولوجي لـ«الوطن».
استنساخ الصوت طبق الأصل
بحسب «طارق» تم تطوير خاصية لاستنساخ الصوت ضمن المميزات الجديدة المزودة في تطبيق ChatGpt والتي تسمح بتحويل الكلمات إلى مقطع فيديو، وفي ميزة استنساخ الصوت أكد أحمد طارق أنه إذا امتلك صاحب التطبيق السابق 15 ثانية فقط من صوت أي إنسان يستطيع استنساخه بالنص تماماً حتى النفس بين كل كلمة وكلمة، ويصنع فيديو به إنسان آلي حقيقي بدون أي مضاعفات وملاحظات، والخطر أن هذا التطبيق يستطيع أن يجعل صاحب الصوت الأصلي يتحدث بكلمات لم يقلها أو شيء لم يكن قادرا على فعله.
الاستنساخ متاح حالياً
ووفقا لـ أحمد طارق فإن شركة open AI وفرت استنساخ الصوت بشكل أسهل في خلال دقيقة، لا بد أن ترفع الصوت لمواقع معينة تتدرب على الصوت ثم تخرج نفس الصوت بدقة عالية والموضوع مثير للقلق، لا بد من الخوف والحذر من الأصوات المنتشرة على السوشيال ميديا والواتساب لأنها توفر فبركة كثيرة، يجب تحري الدقة في كل الأصوات مثل الأصوات التي تطلب أموالا من ماسنجر أو غيره تكون مفبركة، الكثير من الشركات تعرضت للنصب بسبب تقليد أصوات أشخاص مهمة لأصحاب الشركة، ولتجنب الكوارث الناتجة من استنساخ الصوت قامت شركات التكنولوجيا الكبرى مثل شركة ميتا وجوجل في التفكير لوضع علامة لأي محتوى بالذكاء الاصطناعي على سبيل المثال الصور المعدلة بالذكاء الاصطناعي يكتب فوقها فيما معناه أنه غير حقيقي ومعدل بالذكاء الاصطناعي.