Cu adevărat o revoluţie tehnologică: Guvernele şi companiile au probleme în a evalua corect performanţa modelelor de inteligenţă artificială. „Oamenii nu vor folosi o tehnologie în care nu au încredere”

Autor: Valeriu Dănilă Postat la 10 aprilie 2024 25 afişări

Cu adevărat o revoluţie tehnologică: Guvernele şi companiile au probleme în a evalua corect performanţa modelelor de inteligenţă artificială. „Oamenii nu vor folosi o tehnologie în care nu au încredere”

Creşterea influenţei inteligenţei artificiale pune la îndoială capacităţile tradiţionale de analiza performanţa acestora, scrie FT.

Limitările criteriilor de evaluare tradiţională a performanţei, acurateţii şi singuranţei în utilizare devin tot mai vizibile pe măsură ce noi modele AI sunt lansate pe piaţă.

Noua cursă din domeniul tehnologiei a luat startul odată cu lansarea ChatGPT în anul 2022 şi de finanţarea industriei cu miliarde de dolari din partea fondurilor de venture capital şi ai giganţilor tech.

Google, Anthropic, Cohere şi Mistral şi-au lansat fiecare modele de inteligenţă artificială în ultimele două luni, toţi dorind să învingă compania OpenAI susţinută puternic de către Microsoft.

„Oamenii nu vor folosi o tehnologie în care nu au încredere”, a declarat Shelley McKinley, chief legal officer la GitHub.

Guvernele au, de asemenea, probleme în a înţelege cum trebuie reglementată inteligenţa artificială. Săptămâna trecută SUA şi Marea Britanie au semnat un acord bilateral privind siguranţa AI.

Preşedintele Joe Biden a emis anul trecut un ordin executiv în care solicita insitutiţiilor guvernamentale să elaboreze standarde de siguranţă în ceea ce priveşte inteligenţa artificială.

Urmărește Business Magazin

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.bmag.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi in această pagină.