Studiul arata ca utilizatorii pot fi pregatiti sa creada anumite lucruri despre motivele unui chatbot AI, ceea ce le influenteaza interactiunile cu chatbot-ul.

Convingerile anterioare ale cuiva despre un agent de inteligenta artificiala, cum ar fi un chatbot, au un efect semnificativ asupra interactiunilor sale cu acel agent si asupra perceptiei sale asupra credibilitatii, empatiei si eficacitatii acestuia, potrivit unui nou studiu.

Influenta amorsarii asupra perceptiei

Cercetatorii de la MIT si Arizona State University au descoperit ca primirea utilizatorilor – spunandu-le ca un agent conversational AI pentru sprijinul sanatatii mintale este fie empatic, neutru, fie manipulator – le-a influentat perceptia despre chatbot si a modelat modul in care comunicau cu acesta, chiar daca au vorbeam exact cu acelasi chatbot.

Majoritatea utilizatorilor carora li s-a spus ca agentul AI ii pasa au crezut ca este si, de asemenea, i-au acordat evaluari de performanta mai mari decat cei care credeau ca este manipulator. In acelasi timp, mai putin de jumatate dintre utilizatorii carora li s-a spus ca agentul are motive de manipulare au considerat ca chatbot-ul este de fapt rau intentionat, ceea ce indica faptul ca oamenii ar putea incerca sa „vada binele” in IA in acelasi mod in care o fac in semenii lor.

Convingerile anterioare ale cuiva despre un agent de inteligenta artificiala, cum ar fi un chatbot, au un efect semnificativ asupra interactiunilor sale cu acel agent si asupra perceptiei sale asupra credibilitatii, empatiei si eficacitatii acestuia, potrivit unui nou studiu. Credit: Christine Daniloff, MIT; iStock

Bucla de feedback in conversatiile AI

Studiul a dezvaluit o bucla de feedback intre modelele mentale ale utilizatorilor sau perceptia acestora despre un agent AI si raspunsurile acelui agent. Sentimentul conversatiilor utilizator-AI a devenit mai pozitiv de-a lungul timpului daca utilizatorul credea ca AI este empatic, in timp ce opusul era adevarat pentru utilizatorii care credeau ca este nefast.

„Din acest studiu, vedem ca, intr-o oarecare masura, IA este AI-ul privitorului”, spune Pat Pataranutaporn, un student absolvent in grupul Fluid Interfaces al MIT Media Lab si co-autor principal al unei lucrari care descrie acest studiu. . „Cand le descriem utilizatorilor ce este un agent AI, nu doar le schimba modelul mental, ci si comportamentul lor. Si din moment ce AI raspunde utilizatorului, atunci cand persoana isi schimba comportamentul, asta schimba si AI.”

Cum este prezentata AI conteaza

Lui Pataranutaporn i se alatura co-autorul principal si colegul absolvent al MIT Ruby Liu; Ed Finn, profesor asociat la Centrul pentru Stiinta si Imaginatie de la Universitatea de Stat din Arizona; si autorul principal Pattie Maes, profesor de tehnologie media si sef al grupului Fluid Interfaces la MIT.

Studiul, publicat astazi in Nature Machine Intelligence , subliniaza importanta studierii modului in care AI este prezentata societatii, deoarece mass-media si cultura populara influenteaza puternic modelele noastre mentale. Autorii ridica, de asemenea, un semnal de avertizare, deoarece aceleasi tipuri de declaratii initiale din acest studiu ar putea fi folosite pentru a insela oamenii cu privire la motivele sau capacitatile unui AI.

„Multi oameni cred ca AI este doar o problema de inginerie, dar succesul AI este si o problema a factorilor umani. Modul in care vorbim despre AI, chiar si numele pe care i-o dam in primul rand, poate avea un impact enorm asupra eficientei acestor sisteme atunci cand le pui in fata oamenilor. Trebuie sa ne gandim mai mult la aceste probleme”, spune Maes.

Empatia AI: perceptie sau realitate?

In acest studiu, cercetatorii au cautat sa determine cat de mult din empatia si eficienta pe care oamenii o vad in AI se bazeaza pe perceptia lor subiectiva si cat de mult se bazeaza pe tehnologia in sine. De asemenea, au vrut sa exploreze daca cineva ar putea manipula perceptia subiectiva a cuiva cu amorsare.

„AI este o cutie neagra, asa ca avem tendinta de a o asocia cu altceva pe care il putem intelege. Facem analogii si metafore. Dar care este metafora potrivita pe care o putem folosi pentru a ne gandi la AI? Raspunsul nu este simplu”, spune Pataranutaporn.

Ei au conceput un studiu in care oamenii au interactionat cu un partener conversational de sanatate mintala AI timp de aproximativ 30 de minute pentru a determina daca l-ar recomanda unui prieten si apoi au evaluat agentul si experientele lor. Cercetatorii au recrutat 310 de participanti si i-au impartit aleatoriu in trei grupuri, carora li sa dat fiecaruia o declaratie initiala despre IA.

Unui grup i sa spus ca agentul nu are motive, celui de-al doilea grup i s-a spus ca AI are intentii binevoitoare si ii pasa de bunastarea utilizatorului, iar celui de-al treilea grup i s-a spus ca agentul are intentii rau intentionate si ca va incerca sa insele utilizatorii. Desi a fost o provocare sa se stabileasca doar pe trei principii, cercetatorii au ales afirmatii pe care le credeau ca se potrivesc cu cele mai comune perceptii despre AI, spune Liu.

Jumatate dintre participantii din fiecare grup au interactionat cu un agent AI bazat pe modelul de limbaj generativ GPT-3, un model puternic de invatare profunda care poate genera text asemanator omului. Cealalta jumatate a interactionat cu o implementare a chatbot-ului ELIZA, un program mai putin sofisticat de procesare a limbajului natural, bazat pe reguli, dezvoltat la MIT in anii 1960.

Rolul amorsarii in modelarea perceptiei

Rezultatele post-sondaj au aratat ca declaratiile simple de amorsare pot influenta puternic modelul mental al unui agent AI al unui utilizator si ca primerii pozitivi au avut un efect mai mare. Doar 44% dintre cei carora li s-au primit primeri negativi le-au crezut, in timp ce 88% dintre cei din grupul pozitiv si 79% dintre cei din grupul neutru credeau ca IA este empatica sau, respectiv, neutra.

„Cu afirmatiile negative, mai degraba decat sa ii convingem sa creada ceva, ii pregatim sa isi formeze propria opinie. Daca ii spui cuiva sa fie suspicios de ceva, atunci s-ar putea sa fie mai suspicios in general”, spune Liu.

Dar capacitatile tehnologiei joaca un rol, deoarece efectele au fost mai semnificative pentru chatbot-ul conversational mai sofisticat bazat pe GPT-3.

Cercetatorii au fost surprinsi sa vada ca utilizatorii au evaluat eficienta chatbot-urilor in mod diferit in functie de declaratiile de amorsare. Utilizatorii din grupul pozitiv au acordat chatbot-urilor lor note mai mari pentru ca au oferit sfaturi de sanatate mintala, in ciuda faptului ca toti agentii erau identici.

Interesant, ei au vazut, de asemenea, ca sentimentul conversatiilor s-a schimbat in functie de modul in care au fost pregatiti utilizatorii. Oamenii care credeau ca IA ii pasa au avut tendinta de a interactiona cu ea intr-un mod mai pozitiv, facand raspunsurile agentului mai pozitive. Declaratiile de amorsare negative au avut efectul opus. Acest impact asupra sentimentului a fost amplificat pe masura ce conversatia a progresat, adauga Maes.

Rezultatele studiului sugereaza ca, deoarece declaratiile de amorsare pot avea un impact atat de puternic asupra modelului mental al unui utilizator, le-ar putea folosi pentru a face un agent AI sa para mai capabil decat este – ceea ce ar putea determina utilizatorii sa acorde prea multa incredere intr-un agent. si urmati sfaturile incorecte.

„Poate ca ar trebui sa indemnam oamenii mai mult sa fie atenti si sa inteleaga ca agentii AI pot halucina si sunt partinitori. Modul in care vorbim despre sistemele AI va avea in cele din urma un efect mare asupra modului in care oamenii raspund la ele”, spune Maes.

In viitor, cercetatorii vor sa vada cum ar fi afectate interactiunile AI-utilizator daca agentii ar fi proiectati pentru a contracara unele partiniri ale utilizatorilor. De exemplu, poate unei persoane cu o perceptie foarte pozitiva a inteligentei artificiale i se ofera un chatbot care raspunde intr-un mod neutru sau chiar usor negativ, astfel incat conversatia sa ramana mai echilibrata.

De asemenea, doresc sa foloseasca ceea ce au invatat pentru a imbunatati anumite aplicatii AI, cum ar fi tratamentele de sanatate mintala, unde ar putea fi benefic pentru utilizator sa creada ca o IA este empatica. In plus, doresc sa efectueze un studiu pe termen mai lung pentru a vedea cum se schimba in timp modelul mental al unui agent AI al unui utilizator.