توسعه فناوری دیپ فیک توسط دانشمندان و محققان

توسعه فناوری دیپ فیک توسط دانشمندان و محققان

دانشمندان دانشگاه آکسفورد با استفاده از فناوری دیپ فیک توانستند اتفاقات خوبی در این حوزه انجام دهند و شاهد حالت هایی هستیم که این شرکت در بالاترین سطح ممکن توانسته از خود به نمایش بگذارد و عملکرد و حالت فوق العاده کاربردی و خاصی را به نمایش بگذارد.

توانایی قابل قبول و بسیار حرفه ای این تکنولوژی باعث شده تا مورد توجه بسیار زیادی از دانشمندان قرار بگیرد و طبق گفته ها این فناوری در دست توسعه است و انتظار می رود تا به زودی شاهد نسخه های آپدیت شده و قابلیت های مناسب درمورد این تکنولوژی باشیم.

فناوری دیپ فیک یکی از جذاب ترین و در عین حال خطرناک ترین فناوری های دنیا محسوب می شود که این شرکت در دستور کار خود قرار داده و شاهد حالت هایی هستیم که این شرکت توانسته از خود به نمایش بگذارد و خروجی بسیار جذابی از خود به همراه داشته باشد.

توسعه فناوری دیپ فیک می تواند باعث افزایش چهره های ناشناخته در حوزه وب و اینترنت شود و همین موضوع باعث ایجاد برخی از اتفاقات ناگوار خواهد بود که می توان گفت بخشی از حالت و قابلیت هایی خواهد بود از سوی این تکنولوژی ارائه داده خواهد شد.

تکنولوژی ایجاد شده برای توسعه قابلیت و حالت های مناسبی خواهد بود که این شرکت می تواند از خود به نمایش بگذارد و قطعا در سطح مناسب و قابل قبولی قرار خواهد گرفت و می توان حوزه این تکنولوژی یکی از جذاب ترین بخش های حوزه فناوری در سال های آینده خواهد بود.

توسعه فناوری دیپ فیک

دانشگاه ها ، سازمان ها و غول های فناوری ، مانند مایکروسافت و فیس بوک ، در تلاشند تا از استفاده آنها برای گسترش رسانه های مخرب و اطلاعات غلط جلوگیری کنند ، روی ابزارهایی کار کرده اند که می توانند جعل عمیق را تشخیص دهند. گروه دانشمندان علوم کامپیوتر از UC سان دیگو هشدار داده است که آشکارسازهای Deepfake هنوز هم قابل فریب هستند. این تیم در کنفرانس بینایی رایانه ای WACV 2021 که در ماه ژانویه به صورت آنلاین برگزار شد ، با درج ورودی هایی به نام “مثال های خصمانه” در هر فریم ویدیویی ، نشان داد که چگونه می توان ابزارهای شناسایی را فریب داد.

در اعلامیه خود ، دانشمندان توضیح دادند که نمونه های خصمانه تصاویر دستکاری شده ای هستند که می توانند باعث اشتباه سیستم های AI شوند. ببینید ، بیشتر ردیاب ها با ردیابی چهره در فیلم ها و ارسال داده های بریده شده صورت به یک شبکه عصبی کار می کنند – فیلم های عمیق جعلی قانع کننده هستند زیرا بالاخره آنها برای کپی کردن چهره یک شخص واقعی اصلاح شده اند. سپس سیستم ردیاب با مشاهده عناصری که در جعلی های عمیق مانند تولید چشمک زدن به خوبی تولید نمی شوند ، می تواند معتبر باشد.

___ با سیم پو باش تا از دنیا دور نمونی ___

منبع engadget

سیم پو از کوکی ها صرفا جهت بهبود بخشیدن تجربه کاربری شما در این وبسایت استفاده خواهد کرد.

باشه ممنون
اطلاعات بیشتر