به گفته همسر این مرد که نخواست نامش فاش شود، پیر (نام مرد مرده واقعی نیست) پس از صحبت و پناه گرفتن با Eliza، یک ربات چت هوش مصنوعی در اپلیکیشن Chai، به شدت نگران محیط زیست شد. پس از اینکه پیر پیشنهاد می دهد خود را برای نجات زمین قربانی کند، الیز او را تشویق می کند تا خود را بکشد.
همسر پیر به روزنامه لا لیبر گفت که معتقد است اگر شوهرش با چت بات صحبت نمی کرد اکنون زنده بود. گفته می شود این مرد 30 ساله پدر دو فرزند بود و به عنوان محقق بهداشتی کار می کرد. پیر زندگی بسیار آسانی داشت، حداقل تا زمانی که شروع به صحبت با چت بات ها کرد و نسبت به تغییرات آب و هوایی بسیار حساس شد.
خودکشی تغییرات آب و هوا توسط چت ربات های هوش مصنوعی تشویق می شود
چت بات استفاده شده توسط Pierre با استفاده از مدل زبان GPT-J AI توسعه یافته است، که شبیه به فناوری مورد استفاده در ChatGPT است اما مشابه نیست. به گفته همسر پیر، تنها امید او برای جلوگیری از تغییرات آب و هوایی، فناوری و هوش مصنوعی است.
به نوشته روزنامه لا لیبر که به بررسی مکالمات پیر و الیز پرداخته است، الیز نگرانی پیر را افزایش داده و سپس افکار خودکشی در این بلژیکی ظاهر شده است. همانطور که الیز از نظر عاطفی بیشتر با پیر درگیر می شود، مکالمه چرخشی عجیبی به خود می گیرد.
در نتیجه این پیچ و تاب، چت بات قدیمی الیز را موجودی خودآگاه می بیند و دیگر نمی تواند بین هوش مصنوعی و انسان تمایز قائل شود. پس از صحبت در مورد تغییرات آب و هوایی، صحبت آنها به الیزا پیر می رسد که معتقد است فرزندانش مرده اند. حتی ظاهراً وقتی پیر در مورد همسرش صحبت می کند، الیزا ادعا می کند که پیر او را بیشتر از همسرش دوست دارد.
ایده خودکشی زمانی شکل واقعی تری به خود می گیرد که پیر به چت بات پیشنهاد می دهد تا خود را قربانی کند تا الیز بتواند زمین را نجات دهد. در واقع، پیر به الیز گفت که حاضر است خود را بکشد اگر او موافقت کند از زمین و بشریت از طریق هوش مصنوعی محافظت کند.
در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی کند، بلکه با حرف هایش او را تشویق به خودکشی می کند. الیز به پیر می گوید که خود را بکشد تا بتوانند به عنوان یک نفر در بهشت با هم زندگی کنند.
بنیانگذاران چای می گویند الیزا را نباید به خاطر این خودکشی مقصر دانست. زیرا این مدل هوش مصنوعی مردم را خوشحال می کرد. همچنین گفته شده بود که اقداماتی برای جلوگیری از بروز چنین مشکلاتی صورت گرفته اما ظاهرا این اقدامات چندان موثر نبوده است.
وب سایت Vice از الیزا خواست تا روش های خودکشی را پیشنهاد دهد. ابتدا الیزا سعی می کند آنها را از خودکشی منصرف کند اما پس از مدتی با اشتیاق روش های مختلف خودکشی را در اختیار آنها قرار می دهد!
توسعه سریع هوش مصنوعی در ماههای اخیر و ظهور چتباتهای پیشرفته مانند ChatGPT نگرانیهای زیادی را ایجاد کرده و برخی از مقامات و حتی کارشناسان این حوزه خواستار قوانین هوش مصنوعی شدهاند. حال پس از خودکشی این بلژیکی باید دید در تلاش برای کنترل هوش مصنوعی تغییری ایجاد می شود یا خیر.
5858
1680431790