Microsoft a actualizat termenii de utilizare ai Copilot după criticile legate de mesajele de avertizare din ultimele zile, însă controversa privind modul în care compania își comunică responsabilitatea pentru rezultatele generate de acest instrument de inteligență artificială persistă. În timp ce oficialii susțin că limbajul învechit va fi modificat, reacțiile din mediul online arată o preocupare mai largă legată de transparența și de încrederea în tehnologiile AI.
Termenii de utilizare și mesajele de avertizare ale Copilot
Compania americană a fost criticată pentru termenii de utilizare ai Copilot, o funcție integrată în suitele Microsoft Office, care a fost actualizați ultima dată pe 24 octombrie 2025. În acele condiții, se preciza explicit că „Copilot este destinat exclusiv divertismentului”, iar utilizatorilor li se recomandă să nu se bazeze pe rezultatele sale pentru informații importante sau sfaturi critice. De asemenea, li se atrăgea atenția că „poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut”, fiind instruiți să îl folosească „pe propria răspundere.”
Un purtător de cuvânt al Microsoft a declarat pentru PCMag că site-ul va fi actualizat pentru a reflecta schimbările, menționând că „pe măsură ce produsul a evoluat, acel limbaj nu mai reflectă modul în care Copilot este utilizat astăzi și va fi modificat odată cu următoarea noastră actualizare.” În contextul în care alte companii, precum OpenAI sau xAI, utilizează avertismente similare, oficialii Microsoft parează eforturile de a transmite utilizatorilor că rezultatele generate de AI trebuie interpretate cu prudență.
Critici și reacții din mediul online
Reacțiile publice nu s-au lăsat așteptate. Multe voci din spațiul digital au considerat că astfel de mesaje de avertizare, deși sunt obligatorii din motive legale, indică o retenție a responsabilității de către companii și o lipsă de încredere în tehnologia dezvoltată. Criticile vizează, într-un mod mai larg, modul în care mari jucători din domeniul tehnologiei comunică limitele și riscurile unor sisteme AI din ce în ce mai avansate.
Tom’s Hardware a subliniat că nu este primul exemplu de astfel de avertismente. OpenAI și xAI, alți lideri pe piața inteligenței artificiale, avertizează explicit utilizatorii că rezultatele generate nu reprezintă „adevărul” absolut sau „singurul serviciu de adevăr sau informații factuale.” În unele cazuri, aceste mesaje sunt percepute ca o formă de protecție pentru companii, menite să limiteze răspunderea în fața posibilelor probleme juridice.
Specialiști în domeniu observă că aceste practici sunt parte a unui proces mai larg de reglementare și adaptare la criza de încredere care începe să se manifeste în rândul publicului. Pe de altă parte, criticii subliniază că comunicarea trebuie să fie clară și transparentă, mai ales pentru utilizatorii mai puțin experimentați în tehnologia AI, pentru a evita dezinformarea sau utilizarea greșită a instrumentelor.
Până în prezent, Microsoft nu a anunțat o dată precisă pentru actualizarea finală a limbajului folosit în termenii de utilizare. Rămâne de urmărit dacă modificările promise vor aduce o clarificare mai accentuată a responsabilităților companiei și dacă vor fi percepute ca fiind suficiente în fața criticilor care privesc etica și transparența în dezvoltarea și utilizarea inteligenței artificiale.