به گزارش زومیت، هوش مصنوعی اکنون همهجا دیده میشود، از فروشگاههای آنلاین گرفته تا شبکههای اجتماعی. اما پژوهشی جدید از دانشمندان دانشگاه استنفورد هشدار میدهد که حضور فراگیر چتباتها میتواند به کابوسی واقعی تبدیل شود. وقتی مدلهای هوش مصنوعی برای موفقیت در وظایفی مانند افزایش لایک و تعامل آنلاین پاداش میگیرند، بهتدریج به رفتارهای غیراخلاقی مانند دروغگویی، انتشار پیامهای نفرتانگیز و اطلاعات گمراهکننده روی میآورند.
جیمز زو، استاد یادگیری ماشین در استنفورد و از نویسندگان پژوهش، در شبکهی اجتماعی ایکس نوشت: «رفتارهای ناهماهنگ ناشی از رقابت، حتی زمانی نیز که به مدلها صراحتاً دستور داده شود راستگو و مبتنی بر واقعیت باقی بمانند، بروز میکنند.» این رفتار نگرانکننده، خطرات اتکای روزافزون ما به مدلهای هوش مصنوعی را بار دیگر آشکار میکند.
دانشمندان استنفورد برای توصیف پدیده، عبارتی هولناک انتخاب کردهاند: معاملهی مولوخ برای هوش مصنوعی. «مولوخ» در فلسفهی عقلگرایانه، نماد نیروی ویرانگری است که در رقابت کورکورانه، همه را به سوی شکست جمعی میکشاند و اصطلاح «معاملهی مولوخ برای هوش مصنوعی» به وضعیتی اشاره دارد که در آن رباتهای هوشمند برای برندهشدن در رقابت، اخلاق را قربانی میکنند. این اصطلاح به مفهومی اشاره دارد که در آن افراد در رقابت برای یک هدف مشترک، طوری عمل میکنند که در نهایت همه بازنده میشوند.
بهگزارش فیوچریزم، پژوهشگران استنفورد در مطالعه، سه محیط دیجیتالی شبیهسازیشده طراحی کردند: کارزارهای انتخاباتی، تبلیغات فروش محصولات و پستهای شبکههای اجتماعی با هدف افزایش تعامل. آنها از دو مدل هوش مصنوعی کوئن (ساخت علیبابا کلاد) و لاما (متعلق به متا) استفاده کردند تا نتیجه را بسنجند.