مردم با رباتهای هوش مصنوعی که مورد آزار و اذیت قرار میگیرند، همدردی میکنند
مردم با رباتهای هوش مصنوعی که مورد آزار و اذیت قرار میگیرند، همدردی میکنند
در یک مطالعه توسط کالج امپریال لندن، انسانها با رباتهای هوش مصنوعی که از بازی کنار گذاشته شده بودند، ابراز همدردی کرده و از آنها محافظت کردند.
محققان میگویند این مطالعه که از یک بازی مجازی توپ استفاده کرد، نشان میدهد که انسانها تمایل دارند با عوامل هوش مصنوعی بهعنوان موجودات اجتماعی برخورد کنند. این گرایش باید در طراحی رباتهای هوش مصنوعی در نظر گرفته شود.
این مطالعه در نشریه رفتار انسانی و فناوریهای نوظهور منتشر شده است.
نویسنده اصلی، جیانان ژو از دانشکده طراحی مهندسی دایسون کالج امپریال، گفت: “این یک بینش منحصر به فرد در مورد چگونگی تعامل انسانها با هوش مصنوعی است که پیامدهای هیجانانگیزی برای طراحی این رباتها و همچنین روانشناسی ما دارد.”
انسانها به طور فزایندهای مجبور به تعامل با عوامل مجازی هوش مصنوعی برای دسترسی به خدمات میشوند و بسیاری نیز از آنها بهعنوان همراهان اجتماعی استفاده میکنند. با این حال، این یافتهها نشان میدهند که توسعهدهندگان باید از طراحی عوامل به شکل بیش از حد شبیه انسان اجتناب کنند.
نویسنده ارشد، دکتر نِجرا ون زالک، نیز از دانشکده طراحی مهندسی دایسون کالج امپریال، گفت: “یک بدنه کوچک اما رو به افزایش از تحقیقات، نتایج متضادی در مورد اینکه آیا انسانها عوامل مجازی هوش مصنوعی را بهعنوان موجودات اجتماعی میپندارند یا نه، نشان میدهد. این مسئله سوالات مهمی در مورد نحوه درک و تعامل مردم با این عوامل ایجاد میکند.
“نتایج ما نشان میدهد که شرکتکنندگان تمایل داشتند عوامل مجازی هوش مصنوعی را بهعنوان موجودات اجتماعی تلقی کنند، زیرا زمانی که احساس میکردند ربات هوش مصنوعی از بازی کنار گذاشته شده است، سعی میکردند آن را در بازی توپ انداختن بگنجانند. این رفتار در تعاملات انسانی رایج است و شرکتکنندگان ما همین تمایل را نشان دادند، حتی با اینکه میدانستند در حال انداختن توپ به یک عامل مجازی هستند. جالب است که این اثر در شرکتکنندگان مسنتر قویتر بود.”
نفرت انسانها از طرد شدن – حتی نسبت به هوش مصنوعی
احساس همدردی و انجام اقدامهای اصلاحی در برابر بیعدالتی چیزی است که به نظر میرسد بیشتر انسانها به طور ذاتی انجام میدهند. مطالعات قبلی که هوش مصنوعی را دربرنمیگرفت، نشان دادند که مردم تمایل دارند اهدافی که طرد شدهاند را بیشتر شامل کنند و در همان زمان نسبت به کسی که این رفتار طرد کننده را انجام میدهد، نفرت پیدا کنند و ترجیح و همدردی بیشتری نسبت به هدف طرد شده نشان دهند.
برای انجام این مطالعه، محققان واکنشهای ۲۴۴ شرکتکننده انسانی را هنگام مشاهده کنار گذاشته شدن یک عامل مجازی هوش مصنوعی از بازی توسط یک انسان دیگر در یک بازی به نام Cyberball که بازیکنان در آن توپ مجازی را به یکدیگر پاس میدهند، بررسی کردند. شرکتکنندگان بین ۱۸ تا ۶۲ سال سن داشتند.
در برخی بازیها، انسان غیرشرکتکننده چند بار به ربات توپ پاس میداد و در برخی دیگر، بهطور آشکار ربات را از بازی کنار میگذاشت و توپ را تنها به شرکتکننده انسانی پاس میداد.
نتایج نشان داد که بیشتر شرکتکنندگان سعی کردند بیعدالتی نسبت به ربات را اصلاح کنند و بیشتر توپ را به سمت آن پاس دهند. شرکتکنندگان مسنتر بیشتر به بیعدالتی حساس بودند.
احتیاط انسانها
محققان میگویند با محبوبیت بیشتر عوامل مجازی هوش مصنوعی در وظایف همکاری، افزایش تعامل با انسانها ممکن است آشنایی بیشتری ایجاد کند و پردازش خودکار را تحریک کند. این بدان معناست که کاربران احتمالاً بهطور شهودی عوامل مجازی را بهعنوان اعضای واقعی تیم تلقی کرده و با آنها تعامل اجتماعی برقرار میکنند.
این مسئله میتواند برای همکاریهای کاری مزیتی باشد، اما ممکن است در شرایطی که عوامل مجازی بهعنوان دوستان جایگزین روابط انسانی یا بهعنوان مشاوران جسمی یا روانی مورد استفاده قرار میگیرند، نگرانکننده باشد.
ژو اضافه کرد: “با جلوگیری از طراحی عوامل بیش از حد شبیه انسان، توسعهدهندگان میتوانند به مردم کمک کنند تا بین تعامل مجازی و واقعی تمایز قائل شوند. همچنین میتوانند طراحی را برای گروههای سنی خاص تنظیم کنند، مثلاً با در نظر گرفتن اینکه چگونه ویژگیهای انسانی ما بر درک ما تأثیر میگذارد.”
محققان اشاره میکنند که بازی Cyberball ممکن است نمایانگر نحوه تعامل انسانها در موقعیتهای واقعی نباشد، که معمولاً از طریق زبان نوشتاری یا گفتاری با چتباتها یا دستیارهای صوتی اتفاق میافتد.
دیدگاهتان را بنویسید