
نقطه عطف خطرناک: هوش مصنوعی در شبیهسازی صدای انسان به بلوغ کامل رسید
هوش مصنوعی از مرز خطرناکی گذشت؛ جایی که دیگر حتی گوش شما هم نمیتواند به شنیدههایش اعتماد کند! پژوهش تازه دانشگاه کوئین مری لندن هشدار میدهد: اکنون با فناوریهایی روبهرو هستیم که صداهایی کاملاً شبیه انسان تولید میکنند و تشخیص واقعیت از جعل را غیرممکن ساختهاند.
بر اساس پژوهشی که در لندن انجام شده، فناوریهای جعل عمقی صدا (Deepfake) به مرحلهای رسیدهاند که تولید نمونههای صوتی غیرواقعی را آنچنان مشابه صدای انسان میکنند که تشخیص آن برای اغلب افراد بسیار دشوار است.
تیمی از پژوهشگران «دانشگاه کوئین مری لندن» در مطالعهای که نتایج آن در مجله علمی PLOS ONE منتشر شد، به این نتیجه رسیدند که دیگر تمایز قائل شدن بین صداهای تولیدشده توسط هوش مصنوعی و صداهای واقعی انسان، تقریباً غیرممکن شده است.
این تیم تحقیقاتی اعلام کرد: «فناوری تولید صدا توسط هوش مصنوعی به حدی از بلوغ رسیده که قادر به ایجاد «کلونهای صوتی» یا «جعلهای عمیق» است که به اندازه صداهای ضبطشده از انسانها طبیعی به نظر میرسند.»
در این مطالعه، از شرکتکنندگان خواسته شد تا به نمونههایی از صداهای واقعی انسان و نیز صداهای مصنوعی تولیدشده توسط دو نوع مختلف از ابزارهای پیشرفته سنتز صدا گوش دهند. برخی از این صداهای مصنوعی با هدف تقلید مستقیم از افراد واقعی شبیهسازی شده بودند و برخی دیگر با استفاده از مدلهای زبانی بزرگ و بدون الگوبرداری از فردی خاص تولید شده بودند. وظیفه شرکتکنندگان ارزیابی میزان واقعیبودن و باورپذیری این صداها بود.
«نادین لاوان»، مدرس ارشد روانشناسی دانشگاه کوئین مری لندن، در همین رابطه هشدار داد: «ما باید درک کنیم که مردم چگونه واقعیت مصنوعی این صداهای بیشاز اندازه واقعگرا را پردازش میکنند.» وی افزود: «رسیدن فناوری هوش مصنوعی به نقطهای که بتواند گفتاری طبیعی و مشابه انسان تولید کند، تنها مسئله زمان بود.»
لاوان با اشاره به تولید این صداهای جعلی با استفاده از «نرمافزارهای موجود در بازار» تأکید کرد: «این فرآیند برای تولید صداهایی غیرقابل تشخیص، به حداقل تخصص، تنها چند دقیقه ضبط صدا از فرد هدف و عملاً بدون هیچ هزینه مالی قابلتوجهی نیاز داشت.»
بر اساس پژوهشی که در لندن انجام شده، فناوریهای جعل عمقی صدا (Deepfake) به مرحلهای رسیدهاند که تولید نمونههای صوتی غیرواقعی را آنچنان مشابه صدای انسان میکنند که تشخیص آن برای اغلب افراد بسیار دشوار است.
تیمی از پژوهشگران «دانشگاه کوئین مری لندن» در مطالعهای که نتایج آن در مجله علمی PLOS ONE منتشر شد، به این نتیجه رسیدند که دیگر تمایز قائل شدن بین صداهای تولیدشده توسط هوش مصنوعی و صداهای واقعی انسان، تقریباً غیرممکن شده است.
این تیم تحقیقاتی اعلام کرد: «فناوری تولید صدا توسط هوش مصنوعی به حدی از بلوغ رسیده که قادر به ایجاد «کلونهای صوتی» یا «جعلهای عمیق» است که به اندازه صداهای ضبطشده از انسانها طبیعی به نظر میرسند.»
در این مطالعه، از شرکتکنندگان خواسته شد تا به نمونههایی از صداهای واقعی انسان و نیز صداهای مصنوعی تولیدشده توسط دو نوع مختلف از ابزارهای پیشرفته سنتز صدا گوش دهند. برخی از این صداهای مصنوعی با هدف تقلید مستقیم از افراد واقعی شبیهسازی شده بودند و برخی دیگر با استفاده از مدلهای زبانی بزرگ و بدون الگوبرداری از فردی خاص تولید شده بودند. وظیفه شرکتکنندگان ارزیابی میزان واقعیبودن و باورپذیری این صداها بود.
«نادین لاوان»، مدرس ارشد روانشناسی دانشگاه کوئین مری لندن، در همین رابطه هشدار داد: «ما باید درک کنیم که مردم چگونه واقعیت مصنوعی این صداهای بیشاز اندازه واقعگرا را پردازش میکنند.» وی افزود: «رسیدن فناوری هوش مصنوعی به نقطهای که بتواند گفتاری طبیعی و مشابه انسان تولید کند، تنها مسئله زمان بود.»
لاوان با اشاره به تولید این صداهای جعلی با استفاده از «نرمافزارهای موجود در بازار» تأکید کرد: «این فرآیند برای تولید صداهایی غیرقابل تشخیص، به حداقل تخصص، تنها چند دقیقه ضبط صدا از فرد هدف و عملاً بدون هیچ هزینه مالی قابلتوجهی نیاز داشت.»
*