جمعه, ۲ آذر ۱۴۰۳ / بعد از ظهر / | 2024-11-22
تبلیغات
تبلیغات
کد خبر: 33439 |
تاریخ انتشار : ۱۲ خرداد ۱۴۰۱ - ۱۰:۵۹ |
121 بازدید
۰
2
ارسال به دوستان
پ

شرکت‌ها از Bossware برای گوش دادن به صحبت‌های کارکنان خود زمانی که نزدیک کامپیوترشان هستند استفاده می‌کنند، چندین برنامه “جاسوس افزار” می‌توانند تماس‌های تلفنی را ضبط کنند و دستگاه‌های خانگی مانند آمازون اکو می‌توانند مکالمات روزمره را ضبط کنند. به گزارش science، یک فناوری جدید به نام استتار صدای عصبی (Neural Voice Camouflage)، اکنون یک […]

شرکت‌ها از Bossware برای گوش دادن به صحبت‌های کارکنان خود زمانی که نزدیک کامپیوترشان هستند استفاده می‌کنند، چندین برنامه “جاسوس افزار” می‌توانند تماس‌های تلفنی را ضبط کنند و دستگاه‌های خانگی مانند آمازون اکو می‌توانند مکالمات روزمره را ضبط کنند.
به گزارش science، یک فناوری جدید به نام استتار صدای عصبی (Neural Voice Camouflage)، اکنون یک برنامه محافظتی ارائه می‌دهد. این دستگاه هنگام صحبت کردن، نویز صوتی سفارشی را در پس‌زمینه تولید می‌کند و برنامه‌هایی که صدا‌های ضبط شده ما را رونویسی می‌کند، گیج می‌کند. سیستم جدید از “حمله خصمانه” استفاده می‌کند. این استراتژی از یادگیری ماشینی استفاده می‌کند که در آن الگوریتم‌ها الگو‌هایی را در داده‌ها پیدا می‌کنند تا صدا‌ها را طوری تغییر دهند که باعث شود هوش مصنوعی و نه افراد، آن را با چیز دیگری اشتباه بگیرند. در اصل، شما از یک هوش مصنوعی برای فریب دادن دیگری استفاده می‌کنید.

با این حال، این روند آنقدر که به نظر می‌رسد آسان نیست. در مطالعه جدید، محققان به یک شبکه عصبی، یک سیستم یادگیری ماشینی الهام گرفته از مغز، آموزش دادند تا به طور موثر آینده را پیش بینی کند. آن‌ها، آن را روی ساعت‌های زیادی از گفتار ضبط‌شده آموزش دادند تا بتواند دائماً کلیپ‌های ۲ ثانیه‌ای صدا را پردازش کند و آنچه را که احتمالاً در آینده گفته می‌شود پنهان کند. به عنوان مثال، اگر کسی به تازگی گفته است «از جشن بزرگ لذت ببرید»، نمی‌تواند دقیقاً پیش‌بینی کند که بعداً چه چیزی گفته می‌شود. اما با در نظر گرفتن آنچه که گفته شد و همچنین ویژگی‌های صدای گوینده، صدا‌هایی تولید می‌کند که طیفی از عبارات احتمالی را که می‌تواند دنبال شود، مختل می‌کند.

محققان همچنین این روش را در دنیای واقعی آزمایش کردند و یک صدای ضبط شده همراه با استتار را از طریق مجموعه‌ای از بلندگو‌ها در اتاقی مشابه میکروفون پخش کردند و سیستم هنوز هم کار می‌کرد. میا چیکویر، متخصص کامپیوتر در دانشگاه کلمبیا که این تحقیق را رهبری می‌کند، می‌گوید: این تنها اولین گام برای محافظت از حریم خصوصی در مواجهه با هوش مصنوعی است. «هوش مصنوعی داده‌های مربوط به صدا، چهره و اعمال ما را جمع‌آوری می‌کند. ما به نسل جدیدی از فناوری نیاز داریم که به حریم خصوصی ما احترام بگذارد.»
بیشتر بخوانید

لینک کوتاه خبر:
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط ادراك خبر در وب سایت منتشر خواهد شد
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    نظرتان را بیان کنید