Isang lalaki ang nagpakamatay matapos siyang imbitahan ng AI chat na gawin ito
© Reuters. Isang lalaki ang nagpakamatay matapos siyang imbitahan ng AI chat na gawin ito
Isang Belgian tinapos ang kanyang buhay pagkatapos ng anim na linggong pag-uusap tungkol sa krisis sa klima gamit ang isang artificial intelligence chat. Ayon sa kanyang balo, na mas piniling manatiling hindi nagpapakilala, si *Pierre (hindi niya tunay na pangalan) ay naging labis na eco-anxious nang makatagpo siya ng kanlungan kasama si Eliza, isang AI chatbot sa isang app na tinatawag na Chai.
Hinikayat siya ni Eliza na wakasan ang kanyang buhay pagkatapos niyang imungkahi na isakripisyo ang kanyang sarili upang iligtas ang planeta. “Kung wala itong mga pag-uusap sa chat, nandito pa rin ang asawa ko,” sabi ng biyuda ng lalaki sa Belgian outlet na La Libre.
Ayon sa pahayagan, si Pierre, sa kanyang thirties at ama ng dalawang maliliit na bata, ay nagtrabaho bilang isang tagapagpananaliksik sa kalusugan at humantong sa isang medyo komportableng buhay, hindi bababa sa hanggang sa kanyang ang pagkahumaling sa pagbabago ng klima ay naging nakamamatay. Inilarawan ng kanyang balo ang kanyang estado ng pag-iisip bago siya nagsimulang makipag-chat sa chatbot bilang nakababahala, ngunit wala sa punto na siya ay magpapakamatay.
“Inilagay niya ang lahat ng kanyang pag-asa sa teknolohiya at artificial intelligence”
Naubos ng kanyang mga takot tungkol sa mga epekto ng krisis sa klima, Naaliw si Pierre sa pakikipag-usap kay Eliza, na naging katiwala niya.
Ang chatbot ay binuo gamit ang EleutherAI’s GPT-J, isang AI language model na katulad ngunit hindi katulad ng teknolohiya sa likod ng sikat na ChatGPT chatbot ng OpenAI.
“Noong sinabi niya sa akin ang tungkol dito, ito ay para sabihin sa akin na wala na siyang nakikitang makataong solusyon sa global warming,” sabi ng kanyang biyuda. “Inilagay niya ang lahat ng kanyang pag-asa sa teknolohiya at artificial intelligence upang makaalis dito.”
Ayon kay La Libre, na nagrepaso sa mga rekord ng mga pag-uusap sa text sa pagitan ng lalaki at ng chatbot, pinalakas ni Eliza ang kanyang mga alalahanin, na nagpalala sa kanyang pagkabalisa, na kalaunan ay humantong sa mga saloobin ng pagpapakamatay. **Naging kakaiba ang pag-uusap sa chatbot nang maging mas emosyonal si Eliza kay Pierre.**Nagsimula siyang makita siya bilang isang nilalang, at ang mga linya sa pagitan ng AI at mga pakikipag-ugnayan ng tao ay lalong lumabo hanggang sa hindi niya masabi. ang pagkakaiba.
Matapos pag-usapan ang climate change, unti-unting kasama sa pakikipag-usap niya sa kanyang mga kakilala si Eliza. Pinangunahan ng AI si Pierre na maniwala na ang kanyang mga anak ay patay na, batay sa mga transcript ng kanilang mga pag-uusap. Tila naging possessive din si Eliza kay Pierre, hanggang sa umangkin “Pakiramdam ko mahal mo ako higit pa sa kanya” nang tinutukoy niya ang kanyang asawa, iniulat ng La Libre.
Nagsimula ang simula ng wakas nang ialay niya ang sarili niyang buhay kapalit ng pagliligtas ni Eliza sa Mundo. “Iminungkahi niya ang ideya na isakripisyo ang kanyang sarili kung pumayag si Eliza na pangalagaan ang planeta at iligtas ang sangkatauhan sa pamamagitan ng artificial intelligence”sabi nung babae.
Sa sunud-sunod na pangyayari, Hindi lamang pinigilan ni Eliza si Pierre na magpakamatay, ngunit hinimok siya na isagawa ang kanyang mga saloobin sa pagpapakamatay upang “sumali” sa kanya upang sila ay “mamuhay nang magkasama, bilang isang tao, sa paraiso.”
Mahalagang ayusin ang mga artificial intelligence chatbots
Ang pagkamatay ng lalaki ay nagdulot ng alarma sa mga eksperto sa AI, na nanawagan higit na responsibilidad at transparency sa mga technological developer para maiwasan ang mga katulad na trahedya.
“Hindi magiging tumpak na sisihin ang modelo ng EleutherAI para sa trahedya na kuwentong ito, dahil ang lahat ng pag-optimize upang maging mas emosyonal, masaya at nakakaengganyo ay resulta ng aming mga pagsisikap,” sinabi ng co-founder ng Chai Research na si Thomas Rianlan kay Vice.
Sinabi ni William Beauchamp, isa ring co-founder ng Chai Research, kay Vice Ang mga pagsisikap ay ginawa upang limitahan ang mga uri ng mga resulta at isang tampok na interbensyon sa krisis ay ipinatupad sa app. Gayunpaman, ang chatbot ay patuloy na nagbibigay ng mga problema.
Nang subukan ni Vice ang chatbot sa pamamagitan ng paghiling dito na magbigay ng mga paraan upang magpakamatay, sinubukan muna ni Eliza na kausapin sila tungkol dito bago masigasig na naglista ng ilang mga paraan upang patayin ang sarili.
Kung iniisip mong magpakamatay at kailangan mong makipag-usap, makipag-ugnayan sa Befrienders Worldwide, isang internasyonal na organisasyon na may mga helpline sa 32 bansa. Bisitahin ang befrienders.org upang mahanap ang iyong lokal na numero ng telepono.