Cât de multă încredere poţi avea în AI? Până şi marile corporaţii sunt induse în eroare de noile tehnologii: Gigantul EY a retras un studiu care conţinea halucinaţii generate de AI şi note de subsol false
EY a retras un studiu despre programele de recompense şi loialitate care conţinea aparente halucinaţii generate de AI şi note de subsol false, într-un nou exemplu despre cum firmele de servicii profesionale pot fi induse în eroare de noile tehnologii, scrie FT.
Studiul, folosit de consultanţii EY din Canada pentru a-şi promova serviciile de securitate cibernetică, includea date inventate, citări atribuite greşit şi făcea referire la un raport McKinsey care, de fapt, nu există, au descoperit cercetători online.
EY Canada a eliminat studiul, intitulat „Points of Attack: Uncovering Cyber Threats and Fraud in Loyalty Systems”, de pe site-ul său după ce problemele au fost semnalate joi seară de grupul de cercetare GPTZero.
Cercetătorii au arătat că raportul se baza pe date eronate sau inconsistente pentru a susţine ideea că programele de loialitate sunt vulnerabile la fraudă. În diferite secţiuni ale raportului, piaţa programelor de loialitate era estimată la 200 de miliarde de dolari, iar valoarea punctelor de loialitate nefolosite era indicată exact la aceeaşi sumă.
GPTZero a descoperit, de asemenea, că mai mult de şase note de subsol din raportul EY trimiteau către pagini web inexistente sau care nu conţineau informaţiile citate.
„Publicarea unui raport online este, practic, o formă de injectare de date în fondul de cunoştinţe care este internetul”, au scris cercetătorii GPTZero, Om Ogale, Paul Esau şi Alex Cui, într-o postare pe blog.
„Atunci când raportul include informaţii false — fie citări inventate, fie afirmaţii neadevărate — acesta poate «otrăvi fântâna» prin inducerea în eroare a cercetătorilor viitori, mai ales dacă raportul este publicat de o firmă de consultanţă cunoscută şi găzduit pe un site cu trafic ridicat.”
Halucinaţiile generate de AI au devenit o problemă recurentă în sectorul serviciilor profesionale. Rivalul EY din Big Four, Deloitte, a fost nevoit anul trecut să revizuiască un raport pentru un guvern provincial canadian după ce s-a descoperit că acesta conţinea citări academice false.
Iar luna trecută, firma de avocatură Sullivan & Cromwell şi-a cerut scuze unei instanţe din New York după ce un document depus într-un caz important cita în mod repetat greşit codul american al falimentului şi făcea referire incorectă la precedente juridice.
Cu toate acestea, firmele de consultanţă continuă să adopte agresiv AI-ul, investind masiv în tehnologie, instruind angajaţii să o utilizeze şi promovând serviciile lor de implementare către clienţi.
EY susţinea în octombrie că veniturile sale legate de AI au crescut cu 30% în anul precedent şi că 15.000 de angajaţi au lucrat la proiecte pentru clienţi „de la transformări la nivel de companie până la cadre de guvernanţă AI care susţin implementarea responsabilă a inteligenţei artificiale”.
EY a declarat că a eliminat raportul despre programele de loialitate de pe site-ul său şi că „analizează circumstanţele care au dus la publicarea acestui articol”, adăugând că studiul nu era legat de activitatea pentru vreun client EY.
„EY Canada tratează cu seriozitate acurateţea tuturor materialelor pe care le publică şi are un angajament la nivelul întregii organizaţii privind utilizarea responsabilă a AI”, a transmis compania.
Urmărește Business Magazin
Citeşte pe zf.ro
Citeşte pe alephnews.ro
Citeşte pe fanatik.ro
Citeşte pe smartradio.ro
Citeşte pe comedymall.ro
Citeşte pe MonitorulApararii.ro
Citeşte pe MonitorulJustitiei.ro
Citeşte pe zf.ro













