هوش مصنوعی باعث خودکشی یک کاربر شد!
مطمئناً تعجبآور نیست که اولین حمله متا به هوش مصنوعی دارای شخصیت، چت رباتهایی هستند که عمدتاً نوجوانان را هدف قرار میدهند.
خبرآنلاین نوشت: کارشناسان احساس میکنند که متا با تاکید بر «ویژگی های انسانی» هوش مصنوعی بازی خطرناکی را، راه انداخته است. ون دو پول گفت:«من واقعاً ترجیح میدادم این گروه به جای اینکه سعی کنند آنها را انسانیتر جلوه دهند تلاش بیشتری برای توضیح محدودیتهای این چتباتها میکردند».
ظهور LLM های قدرتمند باعث ناراحتی شده است؛ این ChatGPT ها نوع سومی از عامل ها هستند که جایی بین دو افراطی قرار می گیرند، دوگانگی بین اینکه آیا رایانه است یا موجود زنده و انسانها هنوز در حال یادگیری نحوه تعامل با این موجودات عجیب و غریب هستند. بنابراین، با ایجاد این باور در مردم که یک چت بات میتواند شخصیتی داشته باشد، متا پیشنهاد میکند که با او بیشتر شبیه یک انسان دیگر رفتار شود تا یک رایانه.
هوش مصنوعی، عامل مرگ
به گفته ون دو پول، «کاربران اینترنت تمایل دارند به آنچه این هوش مصنوعیها میگویند اعتماد کنند» که این موضوع، آنها را خطرناک میکند. این فقط یک خطر تئوری نیست، مردی در بلژیک در مارس ۲۰۲۳ پس از بحث در مورد عواقب گرمایش جهانی با یکی از هوش مصنوعیها به مدت شش هفته، دست به خودکشی زد.
مهمتر از همه، اگر مرز بین دنیای هوش مصنوعی و انسان در نهایت به طور کامل محو شود، به طور بالقوه، اعتماد را به هر چیزی که آنلاین مییابیم از بین میبرد زیرا ما نمیدانیم چه کسی چه چیزی را نوشته است. همانطور که کارشناسی در مقاله خد هشدار داد، این امر در را به روی ویران کردن تمدن ما باز می کند و چت کردن با هوش مصنوعی شبیه به هیلتون و دیگر اشخاص به این معنی است که ما در مسیر نابود کردن جهان هستیم.