كشفت شركة أمازون أنها تخطط للسماح للأشخاص بتحويل أصوات أحبائهم الموتى إلى مساعدين افتراضيين، حيث تَعِد الشركة بالقدرة على "جعل الذكريات مستمرة".
وقال روهيت براساد، نائب الرئيس الأول وكبير العلماء، الأربعاء الماضي، إن الشركة تطور تقنية ستسمح لمساعدها الرقمي "أليكسا" بتقليد صوت أي شخص تسمعه من أقل من دقيقة من الصوت المقدم. وأضاف أنه خلال فيروس كورونا "فقد الكثير أحباءه وذويه وبالطبع يفتقدهم".
و"أليكسا" هو جهاز مساعد افتراضي طورته شركة أمازون الأمريكية ويعمل على غرار "سيري" في أجهزة آبل و"غوغل أسيستانت" في أجهزة أندرويد، حيث يوفر "أليكسا" إجابات للمستخدمين من خلال سؤاله بلغات مختلفة، بالإضافة إلى تشغيل الموسيقى وقراءة الأخبار وغيرها من الميزات.
وأضاف براساد: "الطريقة التي حققنا بها ذلك هي من خلال تأطير المشكلة على أنها مهمة تحويل صوت وليست مسارًا لتوليد الكلام".
وأوضح براساد أن هدف أمازون من مساعدها الصوتي هو "الذكاء القابل للتعميم"، ومقارنته بـ "الذكاء العام، والذكاء الاصطناعي الفائق" للخيال العلمي.
ومع ذلك، تراوحت ردود الفعل بشأن هذه الميزة على موقع تويتر من "المخيفة" إلى "المروعة"، فيما رفضها آخرون تماما.
وأعرب العديد على الإنترنت عن عدم ارتياحهم لميزة تعيد صوت شخص في عداد الأموات.
على وجه الخصوص، زاد الجدل بين الخبراء والباحثين حول ما يُعرف باسم التزييف العميق - الفيديو أو الصوت الذي يتم تقديمه باستخدام الذكاء الاصطناعي لجعله يبدو كما لو أن شخصا ما فعل أو قال شيئا لم يحدث أبدا.
وقال أستاذ علوم الكمبيوتر بجامعة ولاية أريزونا، سوباراو كامبهباتي، لموقع "إن بي أر" إنه يأمل أن تعرض أمازون عرضًا توضيحيا لأداة تكرار الصوت تجعل من الجمهور يقظا لاستخدام الأصوات الاصطناعية في الحياة اليومية.
وأضاف: "بالنسبة للأشخاص الذين يشعرون بالحزن، قد يساعد ذلك في الواقع بنفس الطريقة التي ننظر بها إلى الوراء ونشاهد مقاطع فيديو للأشخاص الراحلين. لكن هذا يأتي مع قضايا أخلاقية خطيرة". وتساءل: "هل من المقبول القيام بذلك دون موافقة الشخص المتوفى؟".
وكانت شركات التكنولوجيا الأخرى حذرة بشأن جعل إنتاج مضاعفات الصوت الرقمية أمرًا سهلاً للغاية، لذلك قبل ساعات من إعلان أمازون عن خططها، نشرت مايكروسوفت قواعد أخلاقية جديدة للذكاء الاصطناعي (AI) تضع قيودًا صارمة على من يمكنه إنشاء أصوات اصطناعية وكيف يمكنهم ذلك.
وقالت ناتاشا كرامبتون، مديرة منظمة العفو الدولية المسؤولة في الشركة: "هذا سهل جدًا.. تخيل كيف يمكن استخدامها لانتحال شخصية المتحدثين بشكل غير لائق وخداع المستمعين".