يُمكن لصوت الشخص أن يُخبرك عن مستواه التعليمي، وحالته النفسية، وحتى مهنته ووضعه المالي، وأمور أخرى أكثر مما تتخيل. والآن، يُشير العلماء إلى أن تقنية تحويل الصوت إلى نص يمكن استخدامها في التلاعب بالأسعار، والتصنيف غير العادل، والتحرش والتعقب.
في حين أن البشر قد يكونون متنبهين للإشارات الأكثر وضوحًا مثل التعب، أو العصبية، أو السعادة، وما إلى ذلك، يمكن لأجهزة الكمبيوتر أن تفعل الشيء نفسه، ولكن بمعلومات أكثر بكثير، وبسرعة أكبر.
وتدعي دراسة جديدة أن أنماط النبرة أو اختيارك للكلمات يمكن أن تكشف كل شيء، بدءًا من ميولك السياسية الشخصية إلى وجود حالات صحية أو طبية، بحسب تقرير لموقع "لايف ساينس"، اطلعت عليه "العربية Business".
تسلط هذه الدراسة، التي نُشرت في 19 نوفمبر 2025 في دورية "Proceedings of the IEEE"، الضوء على مخاوف بالغة بشأن قدرة هذه التقنية على انتهاك الخصوصية والنميط غير العادل.
رغم ما تُتيحه تقنيات معالجة الصوت والتعرف عليه من فرص، يرى توم باكستروم، الأستاذ المشارك في قسم تقنيات الكلام واللغة بجامعة آلتو والمؤلف الرئيسي للدراسة، احتمالية وجود مخاطر وأضرار جسيمة.
فعلى سبيل المثال، إذا استطاعت شركة ما فهم وضعك الاقتصادي أو احتياجاتك من صوتك، فإن ذلك يفتح الباب أمام التلاعب بالأسعار، كفرض أقساط تأمين تمييزية.
وعندما يمكن للأصوات أن تكشف عن تفاصيل مثل الضعف العاطفي أو الجنس أو غيرها من المعلومات الشخصية، يمكن للمجرمين الإلكترونيين أو المطاردين التعرف على الضحايا وتتبعهم عبر المنصات، مما يعرضهم للابتزاز أو التحرش. كل هذه التفاصيل ننقلها بشكل لا واعٍ عندما نتحدث، ونستجيب لها بشكل لا شعوري قبل أي شيء آخر.
وقالت جينالين بونراج، مؤسسة شركة ديلاير، وهي ومختصة بمستقبلية تنظيم الجهاز العصبي البشري في ظل التقنيات الناشئة، لموقع لايف ساينس: "يُولى اهتمام ضئيل جدًا لفسيولوجيا الاستماع. في وقت الأزمة، لا يعالد الناس اللغة في المقام الأول، بل يستجيبون لنبرة الصوت والإيقاع والتنغيم والتنفس، غالبًا قبل أن تتاح للعقل فرصة التفاعل".
انتبه لنبرة صوتك
قالت باكستروم لموقع لايف ساينس إنه على الرغم من أن هذه التقنية لم تُستخدم بعد، فإن بذورها قد زُرعت بالفعل.
وأضاف: "يُناقش بانفتاح الكشف التلقائي عن الغضب والسلوك السام في ألعاب الإنترنت ومراكز الاتصال. وهذه أهداف مفيدة وقوية من الناحية الأخلاقيًة"، مضيفًا: "لكن تزايد تبني واجهات التفاعل الصوتي مع العملاء، على سبيل المثال -بحيث يكون أسلوب الرد الآلي مشابهًا لأسلوب العميل- يخبرني بإمكانية تحقيق أهداف أكثر إثارة للشبهات أخلاقيًا أو حتى خبيثة".
وأشار إلى أنه رغم أنه لم يسمع عن ضبط أي جهة وهي تستخدم هذه التكنولوجيا بشكل غير لائق، فإنه لا يعرف ما إذا كان السبب هو أن أحدًا لم يفعل ذلك، أم لأننا ببساطة لم نكن نبحث عن الأمر.
يجب أيضًا أن نتذكر أن أصواتنا موجودة في كل مكان؛ فبين كل رسالة صوتية نتركها، وفي كل مرة يُخبرنا فيها خط خدمة العملاء أن المكالمة تُسجل لأغراض التدريب وضمان الجودة، يوجد سجل رقمي لأصواتنا بكميات تُضاهي بصمتنا الرقمية، والتي تشمل المنشورات والمشتريات وغيرها من الأنشطة على الإنترنت.
وإذا أو عندما تدرك شركة تأمين كبرى أنها تستطيع زيادة أرباحها من خلال تسعير التغطية بشكل انتقائي استنادًا إلى معلومات عنا جُمعت من أصواتنا باستخدام الذكاء الاصطناعي، فما الذي سيمنعها؟.
وقال باكستروم إن مجرد الحديث عن هذه القضية قد يكون بمثابة فتح باب لمشكلات كبيرة، إذ يُطلع العامة و"الخصوم" على حد سواء على التكنولوجيا الجديدة.
وشدد على ضرورة توعية الجمهور بالمخاطر المحتملة، وإلا، فإن "الشركات الكبرى والدول المراقبة ستكون قد انتصرت بالفعل". ويختتم حديثه قائلًا: "قد يبدو هذا متشائمًا للغاية، لكنني أختار أن أكون متفائلًا بأنني أستطيع فعل شيء حيال ذلك".
تحمي صوتك
لحسن الحظ، توجد مناهج هندسية واعدة تساعد الأشخاص على حماية أنفسهم. والخطوة الأولى هي قياس ما تكشفه أصواتنا بدقة. وكما ذكر باكستروم، يصعب بناء أدوات للحماية عندما لا تعرف ما الذي تحاول حمايته.
وقد أدت هذه الفكرة إلى إنشاء "Security And Privacy In Speech Communication Interest Group"، وهي مجموعة توفر منتدى متعدد التخصصات للبحث، وإطارًا لقياس كمية المعلومات التي يحتويها الكلام.
ومن هنا، يصبح من الممكن نقل المعلومات الضرورية فقط للمعاملة المقصودة. تخيّل أن يقوم النظام المعني بتحويل الكلام إلى نص لاستخلاص المعلومات الأساسية المطلوبة فقط؛ إما أن يقوم موظف الخدمة بإدخال المعلومات في نظامه (من دون تسجيل المكالمة الفعلية)، أو أن يحول هاتفك كلماتك إلى نص لإرساله.
وكما قال باكستروم في مقابلة مع موقع لايف ساينس: "ستكون المعلومات المرسلة إلى الخدمة هي أقل قدر ممكن لإنجاز المهمة المطلوبة".