مایکروسافت قبل از انتخابات ایالات متحده از آشکار ساز Deepfake رونمایی کرد
سیستمهای دیپ فیک (جعل عمیق) که سیستمهای مبتنی بر یادگیری عمیق و یادگیری ماشین محسوب میشوند، در نگاه اول شاید فناوری سرگرم کنندهای به نظر برسند، با این حال، با بررسی دقیق کاربرد آنها میتوان دریافت از این دسته از فناوریها برای جابجایی چهره افراد مختلف و تحریف کردن فایلهای ویدیوئی استفاده می شود
در چند سال اخیر، شاهد ظهور فناوریهای هوشمند و در عین حال خطرناکی در سطح اینترنت هستیم؛ به جرأت میتوان گفت که از میان فناوریهای ترسناک و خطرناک موجود در سطح اینترنت، قابلیت گول زدن افراد با محتویات جعلی و غیر واقعی توسط دیپ فیک (جعل عمیق)، یکی از رعبآورترین سناریوهای استفاده از فناوریهای مبتنی بر هوش مصنوعی محسوب میشود. تمامی فناوریها این قابلیت را دارند که برای مقاصد خصمانه یا مفید مورد استفاده قرار گیرند، فناوریهای دیپ فیک (جعل عمیق) نیز از این قاعده مستثنی نیستند و علاوه بر کاربردهای خصمانه، پتانسیل استفاده در کاربردهای مفید (نظیر تجاری) را دارند.
مایکروسافت با استفاده از مجموعه فناوری هایی که به تدریج در حال رشد هستند، با هدف ردیابی ویدیوهای جعلی( معروف به Deepfake) ابزاری برای آنالیز کردن ویدیوها و تصاویر ثابت ارائه کرد.
این ابزار که Video Authenticator نامیده می شود، و مایکروسافت آن را امتیاز اطمینان می نامد می تواند ویدیوهای دستکاری شده را شناسایی کند.
در مورد ویدیوها، می تواند درصد اطمینان را در زمان واقعی بر روی هر فریم در هنگام پخش ویدیو ارائه داد. این روند با تشخیص مرزهای منحنی، حذف نقاط تیز یا عناصر خاکستری که با چشم قابل شناسایی نیستند صورت می گیرد.