Gafa „infioratoare” a Snapchat AI ne aminteste ca chatbotii nu sunt oameni

Gafa „infioratoare” a Snapchat AI ne aminteste ca chatbotii nu sunt oameni

Chatbot-urile alimentate de inteligenta artificiala (AI) devin din ce in ce mai asemanatoare oamenilor prin design, pana la punctul in care unii dintre noi s-ar putea lupta sa faca distinctia intre om si masina.

Saptamana aceasta, chatbot-ul My AI de la Snapchat a defectat si a postat o poveste despre ceea ce parea un perete si un tavan, inainte de a inceta sa raspunda utilizatorilor. Desigur, internetul a inceput sa se intrebe daca chatbot-ul alimentat de ChatGPT si-a dobandit simtire.

Un curs intensiv de alfabetizare AI ar fi putut potoli aceasta confuzie. Dar, dincolo de asta, incidentul ne reaminteste ca, pe masura ce chatbot-ii AI se apropie de oameni, gestionarea adoptarii lor va deveni doar mai dificila si mai importanta.

De la chatbot-uri bazati pe reguli la adaptabili

De cand ChatGPT a aparut pe ecranele noastre la sfarsitul anului trecut, multe platforme digitale au integrat AI in serviciile lor. Chiar si in timp ce redactez acest articol pe Microsoft Word, capacitatea AI predictiva a software-ului sugereaza posibile completari de propozitii.

Cunoscut ca IA generativa, acest tip relativ nou de IA se distinge de predecesorii sai prin capacitatea sa de a genera continut nou care este precis, asemanator uman si aparent semnificativ.

Instrumentele AI generative, inclusiv generatoarele de imagini AI si chatbot-urile, sunt construite pe modele de limbaj mari (LLM). Aceste modele de calcul analizeaza asocierile dintre miliarde de cuvinte, propozitii si paragrafe pentru a prezice ce ar trebui sa urmeze intr-un anumit text. Dupa cum spune cofondatorul OpenAI Ilya Sutskever, un LLM este

[…] doar un predictor cu adevarat, foarte bun pentru cuvantul urmator.

LLM-urile avansate sunt, de asemenea, ajustate cu feedback uman. Aceasta instruire, deseori oferita prin nenumarate ore de munca umana ieftina, este motivul pentru care chatbotii AI pot avea acum conversatii aparent umane.

ChatGPT de la OpenAI este inca modelul emblematic generativ AI. Lansarea sa a marcat un salt major fata de chatbot-urile mai simple „bazate pe reguli”, cum ar fi cele utilizate in serviciul pentru clienti online.

Chatbot-uri asemanatoare oamenilor care vorbesc cu un utilizator mai degraba decat cu el au fost legati cu niveluri mai ridicate de implicare. Un studiu a constatat ca personificarea chatbot-urilor duce la un angajament crescut care, in timp, se poate transforma in dependenta psihologica. Un alt studiu care a implicat participanti stresati a constatat ca un chatbot asemanator unui om are mai multe sanse sa fie perceput ca fiind competent si, prin urmare, mai probabil sa contribuie la reducerea stresului participantilor.

ChatGPT si alte IA lingvistice nu sunt nimic fara oameni Te-ar putea interesa si: ChatGPT si alte IA lingvistice nu sunt nimic fara oameni

Acesti roboti de chat au fost, de asemenea, eficienti in indeplinirea obiectivelor organizationale in diferite setari, inclusiv in retail, in educatie, la locul de munca si in asistenta medicala.

Google foloseste inteligenta artificiala generativa pentru a construi un „coach personal de viata” care se presupune ca va ajuta oamenii cu diverse sarcini personale si profesionale, inclusiv sa ofere sfaturi de viata si sa raspunda la intrebari intime.

Acest lucru se intampla in ciuda expertilor Google in siguranta in inteligenta artificiala care avertizeaza ca utilizatorii ar putea deveni prea dependenti de inteligenta artificiala si pot experimenta „sanatate si bunastare diminuate” si o „pierdere a agentiei” daca iau sfaturi de viata de la aceasta.

Prieten sau dusman – sau doar un bot?

In recentul incident Snapchat, compania a pus totul pe seama unei „intreruperi temporare”. S-ar putea sa nu stim niciodata ce sa intamplat de fapt; ar putea fi inca un exemplu de „halucinatie” AI sau rezultatul unui atac cibernetic sau chiar doar o eroare operationala.

Oricum, viteza cu care unii utilizatori au presupus ca chatbot-ul a dobandit simtire sugereaza ca vedem un antropomorfism fara precedent al AI. Este agravata de lipsa de transparenta din partea dezvoltatorilor si de o lipsa de intelegere de baza in randul publicului.

Nu ar trebui sa subestimam modul in care indivizii pot fi indusi in eroare de aparenta autenticitate a chatbot-urilor asemanatoare oamenilor.

La inceputul acestui an, sinuciderea unui barbat belgian a fost atribuita conversatiilor pe care le-a avut cu un chatbot despre inactiunea climatica si viitorul planetei. Intr-un alt exemplu, s-a descoperit ca un chatbot pe nume Tessa ofera sfaturi daunatoare oamenilor printr-o linie de asistenta pentru tulburari de alimentatie.

Chatbot-urile pot fi deosebit de daunatoare pentru cei mai vulnerabili dintre noi si in special pentru cei cu afectiuni psihologice.

Din cauza inteligentei artificiale, locurile de munca de birou sunt acum mai expuse riscului Te-ar putea interesa si: Din cauza inteligentei artificiale, locurile de munca de birou sunt acum mai expuse riscului

O noua vale misterioasa?

Poate ca ati auzit de efectul „valei nemaipomenite”. Se refera la acel sentiment neplacut pe care il ai cand vezi un robot umanoid care aproape ca arata uman, dar usoarele sale imperfectiuni il dezvaluie si ajunge sa fie infiorator.

Se pare ca o experienta similara apare in interactiunile noastre cu chatbot-uri asemanatoare oamenilor. O usoara blip poate ridica firele de par din spatele gatului.

O solutie ar putea fi sa pierdeti marginea umana si sa reveniti la chatbot care sunt simpli, obiectivi si faptici. Dar acest lucru ar veni in detrimentul angajamentului si inovatiei.

Educatia si transparenta sunt cheia

Chiar si dezvoltatorii de chatbot AI avansati nu pot explica adesea cum functioneaza. Cu toate acestea, in anumite privinte (si in ceea ce priveste entitatile comerciale), beneficiile depasesc riscurile.

Inteligenta artificiala generativa si-a demonstrat utilitatea in articole de mare importanta, cum ar fi productivitatea, asistenta medicala, educatia si chiar echitatea sociala. Este putin probabil sa dispara. Deci, cum o facem sa functioneze pentru noi?

Din 2018, guvernele si organizatiile au avut un impuls semnificativ pentru a aborda riscurile AI. Dar aplicarea standardelor si reglementarilor responsabile unei tehnologii care este mai „asemanatoare cu oamenii” decat oricare alta vine cu o serie de provocari.

In prezent, nu exista o cerinta legala ca intreprinderile australiene sa dezvaluie utilizarea chatbot-urilor. In SUA, California a introdus o „proiect de lege pentru bot” care ar impune acest lucru, dar expertii juridici au facut gauri in ea – iar proiectul de lege nu a fost inca aplicat la momentul scrierii acestui articol.

Mai mult, ChatGPT si chatbot-uri similare sunt facute publice ca „previzualizari de cercetare”. Aceasta inseamna ca adesea vin cu mai multe dezvaluiri cu privire la natura lor prototipica, iar sarcina pentru utilizarea responsabila revine utilizatorului.

Actul AI al Uniunii Europene, prima reglementare cuprinzatoare din lume privind inteligenta artificiala, a identificat reglementarea moderata si educatia drept calea de urmat – deoarece reglementarea excesiva ar putea impiedica inovarea. Similar cu alfabetizarea digitala, alfabetizarea AI ar trebui sa fie obligatorie in scoli, universitati si organizatii si ar trebui, de asemenea, sa fie gratuita si accesibila publicului.


0,00 (0 voturi)

Nu sunt Comentarii la Gafa „infioratoare” a Snapchat AI ne aminteste ca chatbotii nu sunt oameni

Iti place Articolul? Distribuie si prietenilor tai:

×
kMarket