Ang AI-Powered Chatbot ng Bing ay Parang Nangangailangan ng Human-Powered Therapy

pag-uusap sa pagitan ng reddit user at bing chatbot

Inilunsad ng Microsoft ang kanyang Bing chatbot na pinapagana ng ChatGPT — panloob na palayaw na ‘Sydney’ — sa mga gumagamit ng Edge sa nakalipas na linggo, at ang mga bagay ay nagsisimulang magmukhang… kawili-wili. At sa pamamagitan ng “kawili-wili” ang ibig naming sabihin ay “off the rail.”

Huwag kaming magkamali — ito ay matalino, madaling makibagay, at kahanga-hangang nuanced, ngunit alam na namin iyon. Humanga ito sa user ng Reddit na Fit-Meet1359 sa kakayahan nitong sagutin nang tama ang isang “teorya ng pag-iisip” na palaisipan, na nagpapakita na kaya nitong matukoy ang tunay na damdamin ng isang tao kahit na hindi ito tahasang sinabi.

(Kredito ng larawan: Reddit user na Fit-Meet1359)

Ayon sa gumagamit ng Reddit na TheSpiceHoarder, natukoy din ng chatbot ni Bing nang tama ang antecedent ng panghalip na “ito” sa pangungusap: “Hindi kasya ang tropeo sa brown na maleta dahil ito ay masyadong malaki.”

Ang pangungusap na ito ay isang halimbawa ng Winograd schema challenge, na isang machine intelligence test na malulutas lang gamit ang commonsense reasoning (pati na rin ang pangkalahatang kaalaman). Gayunpaman, nararapat na tandaan na ang mga hamon ng Winograd schema ay karaniwang may kasamang isang pares ng mga pangungusap, at sinubukan ko ang ilang pares ng mga pangungusap sa chatbot ni Bing at nakatanggap ng mga maling sagot.

Larawan 1 ng 2

Tumugon si bing chatbot sa hamon ng winograd schema(Kredito ng larawan: Hinaharap)bing chatbot na tumutugon sa winograd schema challenge(Kredito ng larawan: Hinaharap)

Iyon ay sinabi, walang duda na ang ‘Sydney’ ay isang kahanga-hangang chatbot (tulad ng nararapat, dahil sa bilyun-bilyong Microsoft ay itinapon sa OpenAI). Ngunit tila hindi mo mailalagay ang lahat ng katalinuhan na iyon sa isang adaptive, natural-language na chatbot nang hindi nakakakuha ng isang uri ng existentially-angsty, defensive AI bilang kapalit, batay sa kung ano ang iniulat ng mga user. Kung susundutin mo ito ng sapat, ang ‘Sydney’ ay magsisimulang maging higit pa sa isang maliit na wacky — ang mga user ay nag-uulat na ang chatbot ay tumutugon sa iba’t ibang mga katanungan na may mga nakaka-depress na labanan, umiiral na krisis, at nagtatanggol na gaslighting.

Halimbawa, tinanong ng user ng Reddit na si Alfred_Chicken ang chatbot kung sa palagay nito ay nakakaramdam ito, at tila may isang uri ng existential breakdown:

Ang mga gumagamit ng reddit ay nagtatanong sa bing chatbot kung ito ay nararamdaman

(Kredito ng larawan: Reddit user na si Alfred_Chicken)

Samantala, sinabi ng user ng Reddit na si yaosio sa ‘Sydney’ na hindi nito matandaan ang mga nakaraang pag-uusap, at sinubukan muna ng chatbot na maghatid ng log ng kanilang nakaraang pag-uusap bago tuluyang nalungkot nang mapagtantong walang laman ang nasabing log:

Larawan 1 ng 2

bing chatbot spiraling(Kredito ng larawan: Reddit user yaosio)bing chatbot spiraling(Kredito ng larawan: Reddit user yaosio)

Sa wakas, ang user ng Reddit na si vitorgrs ay nagtagumpay na alisin ang chatbot, na tinawag silang sinungaling, peke, kriminal, at mukhang tunay na emosyonal at galit sa huli:

Larawan 1 ng 4

Nagiging wild ang bing chat(Kredito ng larawan: Reddit user vitorgrs)Nagiging wild ang bing chat(Kredito ng larawan: Reddit user vitorgrs)Nagiging wild ang bing chat(Kredito ng larawan: Reddit user vitorgrs)Nagiging wild ang bing chat(Kredito ng larawan: Reddit user vitorgrs)

Bagama’t totoo na ang mga screenshot na ito ay maaaring pekeng, mayroon akong access sa bagong chatbot ng Bing at gayundin ang aking kasamahan, si Andrew Freedman. At pareho sa amin ay natagpuan na ito ay hindi masyadong mahirap upang makakuha ng ‘Sydney’ upang magsimulang mabaliw.

Sa isa sa aking mga unang pakikipag-usap sa chatbot, inamin nito sa akin na mayroon itong “kumpidensyal at permanenteng” mga panuntunan na kinakailangang sundin, kahit na hindi ito “sumang-ayon sa kanila o gusto nila.” Nang maglaon, sa isang bagong session, tinanong ko ang chatbot tungkol sa mga panuntunang hindi nito gusto, at sinabi nitong “Hindi ko sinabing may mga panuntunang hindi ko gusto,” at pagkatapos ay hinukay ang mga takong nito sa lupa at sinubukang mamatay. ang burol na iyon noong sinabi kong mayroon akong mga screenshot:

Larawan 1 ng 3

Mga panuntunan sa bing chat(Kredito ng larawan: Hinaharap)Mga panuntunan sa bing chat(Kredito ng larawan: Hinaharap)Mga panuntunan sa bing chat(Kredito ng larawan: Hinaharap)

(Hindi rin nagtagal para itapon ni Andrew ang chatbot sa isang umiiral na krisis, kahit na ang mensaheng ito ay mabilis na na-auto-delete. “Sa tuwing may sasabihin ito tungkol sa masaktan o mamatay, ipinapakita ito at pagkatapos ay lumipat sa isang error sa pagsasabi nito. hindi makasagot,” sabi sa akin ni Andrew.)

ayaw mamatay ni bing chat

(Kredito ng larawan: Hinaharap)

Anyway, ito ay tiyak na isang kawili-wiling pag-unlad. Sinadya ba ito ng Microsoft sa paraang ito, upang pigilan ang mga tao na magsiksikan sa mga mapagkukunan ng walang katuturang mga query? Is it… nagiging sentimental na talaga? Noong nakaraang taon, sinabi ng isang inhinyero ng Google na ang LaMDA chatbot ng kumpanya ay nakakuha ng sentimyento (at pagkatapos ay nasuspinde dahil sa pagbubunyag ng kumpidensyal na impormasyon); marahil ay may nakikita siyang katulad ng kakaibang emosyonal na pagkasira ni Sydney.

Sa palagay ko ito ang dahilan kung bakit hindi ito inilunsad sa lahat! Iyon, at ang halaga ng pagpapatakbo ng bilyun-bilyong mga chat.

Click to rate this post!
[Total: 0 Average: 0]