محققان دانشگاه گوتنبرگ به بررسی این موضوع پرداختند که چگونه سامانه های هوش مصنوعی پیشرفته بر اعتماد ما به افرادی که با آنها تعامل برقرار میکنیم، تأثیر میگذارد.
به گزارش پایگاه علم و پژوهش نیوز و به نقل از خبرگزاری آنا، در حالی هوش مصنوعی به طور روزافزون واقع بینانه میشود، اعتماد ما به کسانی که با آنها ارتباط برقرار میکنیم ممکن است به مخاطره بیفتد.
در یک سناریو، یک کلاهبردار بالقوه که فکر میکند با یک پیرمرد تماس گرفته، درواقع به یک سامانه رایانهای متصل میشود که از طریق حلقههای از پیش ضبط شده با او ارتباط برقرار میکند. فرد کلاهبردار زمان زیادی را صرف تلاش برای کلاهبرداری میکند و صبورانه به داستانهای گیج کننده و تکراری پیرمرد گوش میدهد.
اسکار لیندوال، استاد ارتباطات دانشگاه گوتنبرگ در سوئد مشاهده کرد که اغلب زمان زیادی طول میکشد تا مردم متوجه شوند با یک سامانه فنی در حال تعامل هستند.
او با همکاری جوناس ایوارسون استاد انفورماتیک، مقالهای با عنوان ذهنهای بدگمان: مشکل اعتماد و عناصر مکالمهای به نگارش درآورد و در آن نحوه تفسیر افراد را از موقعیتهایی که یکی از طرفین ممکن است هوش مصنوعی باشند، بررسی کرد.
این مقاله پیامدهای منفی ایجاد سوء ظن نسبت به دیگران را، مانند آسیبی که میتواند به روابط وارد کند، مورد توجه قرار داده است.
ایوارسون نمونهای از یک رابطه عاشقانه را ارائه داد که در آن مسئله اعتماد به وجود میآید و به حسادت و افزایش تمایل به جستجوی شواهد فریبکاری میانجامد. نویسندگان این مقاله ادعا میکنند که ناتوانی در اعتماد کامل به نیات و هویت یک طرف گفتگو ممکن است به سوء ظن شدید بینجامد؛ حتی اگر دلیلی برای آن وجود نداشته باشد.
مطالعه آنها نشان داد که در جریان تعامل بین دو انسان، برخی رفتارها به عنوان نشانههای اینکه در واقع یکی از آنها ربات است، تعبیر میشود.
محققان پیشنهاد میکنند که چشمانداز یک طرح فراگیر باعث توسعه هوش مصنوعی با ویژگیهای فزاینده شبیه انسان میشود. در حالی که این موضوع ممکن است در برخی زمینهها جذاب باشد، اما میتواند مشکل ساز هم باشد، به ویژه زمانی که معلوم نیست با چه کسی در ارتباط هستید.
ایوارسون این سوال را مطرح میکند که آیا هوش مصنوعی باید صداهایی شبیه به انسان داشته باشد، زیرا صدا حس صمیمیت ایجاد میکند و افراد براساس صدا برداشت خود را دارند.
در مورد فرد کلاهبردار بالقوه که با پیرمرد تماس گرفته بود، این کلاهبرداری بعد از مدت طولانی افشا میشود. لیندوال و ایوارسون این موضوع را به باورپذیری صدای انسان و این فرض که رفتار گیجکننده به دلیل سن فرد است، نسبت میدهند. هنگامی که یک هوش مصنوعی دارای صدا است، ویژگیهایی مانند جنسیت، سن و زمینه اقتصادی-اجتماعی را از آن استنباط میکنیم که تشخیص اینکه در حال تعامل با یک رایانه هستیم، دشوارتر میشود.
محققان پیشنهاد ابداع هوش مصنوعی با صداهای خوب و شیوا را میدهند که به وضوح ترکیبی و مصنوعی هستند و شفافیت را افزایش میدهند.
ارتباط با دیگران نه تنها شامل فریب، بلکه ایجاد رابطه و معناسازی مشترک است. تردید در مورد اینکه فرد با یک انسان صحبت میکند یا با رایانه، بر این جنبه از ارتباط تأثیر میگذارد. در حالی که این امر ممکن است در برخی شرایط، مانند درمان شناختی- رفتاری، مهم نباشد، بر سایر اشکال درمانی که به ارتباط انسانی بیشتری نیاز دارد، ممکن است تأثیر منفی بگذارند.
جوناس ایوارسون و اسکار لیندوال دادههای موجود در شبکه اجتماعی یوتیوب را تجزیه و تحلیل کردند. آنها سه نوع گفتگو و واکنش و نظرات مخاطبان را مورد مطالعه قرار دادند. در نوع اول، یک ربات برای نوبت مو با یک فرد تماس میگیرد که برای فرد ناشناخته است. در نوع دوم، شخص به همین منظور با شخص دیگری تماس میگیرد. در نوع سوم، بازاریابان از راه دور به یک سامانه رایانهای با گفتار از پیش ضبط شده، منتقل میشوند.
بستن *نام و نام خانوادگی * پست الکترونیک * متن پیام |
اخبار و اطلاع رسانی علوم و پژوهش ایران، مجلات و کنفرانس های علمی
پایگاه خبری و اطلاع رسانی علم و پژوهش نیوز
مجوز فعالیت از معاونت مطبوعاتی وزارت فرهنگ و ارشاد اسلامی
تلفن تماس: 09010343510
ایمیل: elmopazhoheshnews@gmail.com
web: elmopazhoheshnews.ir