menusearch
elmopazhoheshnews.ir

کلاهبرداری‌های نوظهور هوش مصنوعی/ از جعل عمیق تا ایمیل‌های فیشینگ «چت‌جی‌پی‌تی»

جستجو
پنج شنبه ۱ آذر ۱۴۰۳ | ۱۹:۳۳:۱۴
۱۴۰۲/۴/۲۹ پنج شنبه
(0)
(0)
کلاهبرداری‌های نوظهور هوش مصنوعی/ از جعل عمیق تا ایمیل‌های فیشینگ «چت‌جی‌پی‌تی»
کلاهبرداری‌های نوظهور هوش مصنوعی/ از جعل عمیق تا ایمیل‌های فیشینگ «چت‌جی‌پی‌تی»

فناوری‌های مدرن از هوش مصنوعی گرفته تا ارتباطات بی‌سیم فوق سریع، در سال‌های اخیر کار و زندگی مردم را متحول کرده‌اند. ضمن لذت بردن از راحتی این فناوری‌ها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسر‌های زیادی پیش خواهد آمد.

 

به گزارش پایگاه علم و پژوهش نیوز و به نقل از خبرگزاری آنا، فناوری‌های مدرن از هوش مصنوعی گرفته تا ارتباطات بی‌سیم فوق سریع، در سال‌های اخیر کار و زندگی مردم را متحول کرده‌اند. ضمن لذت بردن از راحتی این فناوری‌ها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسر‌های زیادی پیش خواهد آمد.

استیو وزنیاک، یکی از بنیان گذاران اپل، چندی پیش هشدار داد فناوری هوش مصنوعی ممکن است شناسایی کلاهبرداری‌ها و اطلاعات غلط را سخت‌تر کند.

مقامات در حال مبارزه با کلاهبرداران آنلاین و گروه‌های تبهکار پشت سر آن‌ها هستند، با این حال کلاهبرداری‌ها همچنان به قوت خود ادامه دارد. در ادامه به برخی از رایج‌ترین تله‌های آنلاین می‌پردازیم که با کمک فناوری‌هایی مانند هوش مصنوعی، حتی کاربران آگاه به فناوری نیز در معرض خطر قربانی شدن قرار دارند.

جعل عمیق با استفاده از هوش مصنوعی

دیپ فیک یا جعل عمیق فناوری نوظهور هوش مصنوعی است که به اندازه ترسناک بودن شگفت انگیز است و ضرب المثل قدیمی «دیدن باور کردنی است» را نادیده می‌گیرد.

 

دیپ فیک یا جعل عمیق، ترکیبی از کلمه‌های یادگیری عمیق و جعلی، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد و از یک تکنیک یادگیری ماشین به نام شبکه‌های زایای دشمن‌گونه استفاده می‌کند.

این فناوری قادر است به صورت یکپارچه ظاهر یک شخص را در یک ویدیو برای فرد دیگر کپی کند و صدا و حرکات متقاعد کننده‌ای برای مطابقت با آن داشته باشد. سازنده می‌تواند ویدیو‌هایی تولید کند که به نظر می‌رسد کسی چیزی را با زبان طبیعی بدن می‌گوید، اما در واقع فرد چیزی از این دست نگفته است.

یک اپلیکیشن موبایل به نام «زاو» (ZAO) در سال ۲۰۱۹، ویژگی جدیدی را ارائه کرد که به کاربران اجازه می‌داد تنها با آپلود عکس‌های خود، چهره خود را با افراد مشهور در طیف گسترده‌ای از ویدیو‌ها عوض کنند و فناوری جعل عمیق را در سراسر جهان روی موضوعات مختلف پیاده کنند. این برنامه در حالی پربیننده شد که مردم از عملکرد‌های تغییر چهره لذت می‌بردند، اما خیلی زود باعث نگرانی در مورد تجاوز به حریم خصوصی شد.

استفاده از این فناوری به سرعت و اغلب برای اهداف شرورانه در حال رشد است.یک شرکت مستقر در آمستردام که بر رسانه‌های مصنوعی توسعه یافته توسط هوش مصنوعی نظارت می‌کند، از این فناوری بیشتر برای ایجاد ویدیو‌های جنسی استفاده می‌شود که ۹۶ درصد کل آن را تشکیل می‌دهد. کلاهبرداران مالی نیز از فناوری جعل عمیق برای دستیابی به مقاصد خود سودجویی می‌کنند.

بسیاری از گزارش‌ها نشان داده‌اند که چگونه عکس‌های روزمره مردم که در پلتفرم‌های اجتماعی منتشر می‌شوند، دزدیده شده و برای ویدئوهای جعلی استفاده می‌شوند. وانگ جی، قائم مقام موسسه حاکمیت قانون در آکادمی علوم اجتماعی پکن، به این موضوع اشاره کرد که چهره و صدای مردم باید در عصر هوش مصنوعی محافظت شود.

 

تماس‌های تلفنی شبیه‌سازی صدا با هوش مصنوعی

برنامه‌های شبیه سازی صدا، یک صدا را براساس تعداد زیادی نمونه صدا تکرار می‌کنند که گاهی اوقات می‌تواند به راحتی به صورت آنلاین به دست آید و به کلاهبرداران فرصت می‌دهد تا با استفاده از فناوری برای جعل هویت اعضای خانواده یا دوستان خود از قربانیان کلاهبرداری کنند. برخی از کلاهبرداران حتی داستان آدم ربایی را ساخته و با استفاده از صدای جعلی به عنوان مدرک، درخواست باج کرده‌اند.

به لطف پیشرفت هوش مصنوعی، اپلیکیشن‌های شبیه سازی صدا به طور قابل توجهی بهبود یافته و پیشرفت کرده‌اند، در دسترس‌تر شده و به راحتی تولید می‌شوند.

براساس گزارش سی ان ان در ماه آوریل، یک خانواده در آریزونای آمریکا یک تماس باج خواهی دریافت کردند که در آن صدای جیغ دخترشان را شنیدند و به دنبال آن صدای مردی که درخواست یک میلیون دلار باج کرده بود. اگرچه نیرو‌های پلیس به کمک متخصصان و با استفاده با همان فناوری هوش مصنوعی به جعلی بودن آن پی بردند، اما ترسی که این خانواده تجربه کردند واقعی بود!

 

ایمیل‌های فیشینگ «چت‌جی‌پی‌تی»

فیشینگ ایمیلی دهه‌ها است که وجود دارد. فیشینگ نوعی حمله مهندسی اجتماعی است که عموماً از طریق ایمیل و با هدف سرقت اطلاعات ورود به سیستم و سایر اطلاعات حساس مانند اطلاعات کارت اعتباری برای سرقت هویت افراد انجام می‌شود. یکی از ویژگی‌های قابل توجه فیشینگ، عنصر سورپرایز است! این ایمیل‌ها زمانی دریافت می‌شوند که قربانی انتظارش را ندارد.

کلاهبرداری‌های ایمیلی قدیمی پر از نقاط ضعف داستانی و تایپ‌های بسیار ابتدایی بودند، اما به نظر می‌رسد تکنولوژی‌های جدید مانند چت‌جی‌پی‌تی و یادگیری ماشینی در حال برطرف کردن ایرادات این نوع کلاهبرداری هستند.

مجرمان سایبری، دیگر نیازی به ساخت ایمیل و پاسخ ندارند! آن‌ها می‌توانند تمام مشکلات خود را به هوش مصنوعی بسپارند و الگوریتم‌ها می‌توانند به کلاهبرداران کمک کنند تا تحلیل کنند که قربانیان ایده‌آل آن‌ها چه کسانی هستند. ایمیل‌های پیچیده کلاهبرداری فیشینگ می‌توانند باعث شوند قربانیان مجبور شوند روی لینکی کلیک کنند که ممکن است روی دستگاه آن‌ها بدافزار کار بگذارد.

به گفته شرکت «دارک‌تریس» (Darktrace) که برجسته‌ترین شرکت امنیت سایبری انگلیس است، تعداد زیادی ایمیل فیشینگ توسط چت بات‌ها نوشته می‌شوند که متن متقاعدکننده‌ای ایجاد می‌کنند. ایمیل‌ها را می‌توان به راحتی از یک کارفرما دریافت کرد تا کارمندان را برای باز کردن آن‌ها فریب دهد. ایمیل‌های فیشینگ را همچنین می‌توان با تغذیه اطلاعات شخصی کاربران هوش مصنوعی از رسانه‌های اجتماعی طراحی کرد.

هک دستگاه‌های اینترنت اشیا

زمانی ما از توانایی خود که با پیشرفت فناوری قدرت گرفته بود، برای کنترل وسایل مختلف شخصی، از اتومبیل و یخچال گرفته تا چراغ‌ها و پرده‌ها از تلفن‌های همراه کوچک و همه فن حریف خود شگفت زده شدیم، اما در واقع این دستگاه‌ها می‌توانند نقاط ورود کلیدی برای حملات سایبری باشند.

براساس گزارش وب‌سایت خبری سی‌ان‌بی‌سی، حدود ۱۷ میلیارد ابزار، از چاپگر‌ها گرفته تا بازکننده‌های در گاراژ، در سراسر جهان می‌توانند به راحتی هک شوند. براساس این گزارش، در حالی که امنیت سخت افزار و نرم افزار فناوری اطلاعات در سال‌های اخیر تقویت شده است، امنیت اینترنت اشیا (IoT) از این روند جا مانده است. اکثر کاربران از لزوم به روزرسانی به موقع وصله‌های نرم افزاری آگاه نیستند و این ضعفی است که می‌تواند توسط هکر‌ها مسلح شود.

نظرات کاربران
*نام و نام خانوادگی
* پست الکترونیک
* متن پیام

بستن
*نام و نام خانوادگی
* پست الکترونیک
* متن پیام

0 نظر
هدر سایت
انتشارات چتر اندیشه
پایگاه خبری علم و پژوهش نیوز
آخرین اخبار