Ghid pentru folosirea în siguranță a lui ChatGPT la locul de muncă

Acum câteva zile țineam o serie de training-uri de GDPR la unul dintre clienții noștri, când nu știu ce m-a făcut să pun întrebarea: „câți dintre voi folosiți ChatGPT la muncă?”. Spre șocul meu, toți au ridicat mâna. Atunci mi-am dat seama că trebuie să intensific livrarea training-urilor de guvernanță AI și de introducere în AI, altfel ne vom trezi cu data breach după data breach.

Ce riscăm folosind un AI generativ public.

AI-urile generative sunt de două tipuri: locale și publice.

  1. Modelele locale se „instalează” fie pe serverele tale, fie pe tenant-ul tău din cloud (colțișorul tău de cloud închiriat). Așa funcționează Copilot din cadrul abonamentului Microsoft 365 sau Gemini din cadrul abonamentului Google Workspace.
  2. Modelele publice sunt modele pe care le poți folosi gratuit (cu funcționalități limitate) sau cu plată. Aici intră ChatGPT, Gemini (cel public), Copilot (cel public), Claude de la Anthropic sau Llama de la Meta.

AI Generativ local

AI-urile generative instalate „local” (pe serverele tale sau în cloud) sunt și ele de mai multe tipuri:

  1. Modele publice, instalate local și configurate pentru utilizarea resurselor locale.
  2. Modele adaptate, retrain-uite și folosite pe o anumită nișă (și aici avem de exemplu modelul Experta de la Advisera, nișat pe expertiză de ISO 27001, ISO 9001 și ISO 14001).
  3. Modele construite, train-uite, testate și instalate local.

Cum folosim astfel de modele în siguranță?

⏹️ Verificăm termenii și condițiile producătorului, dacă AI-ul este unul cumpărat sau închiriat. Atenție la ce date sau metadate se transmit către producător, pentru scopurile sale.

⏹️ Verificăm responsabilitatea producătorului, asumată conform EU AI Act. Analizele de risc, notificările de transparență etc.

⏹️ Dacă trebuie să îl învățăm, atenție mare la date – din ele trebuie „eliminate” părtinirile (bias-urile), discriminarea, datele incomplete, incorecte, nerelevante etc. Datele trebuie „curățate” pentru a fi relevante, complete, calitative și fără bias-uri. Nu de alta, dar dacă „învață” despre o politică veche ce spune că angajatele trebuie întrebate dacă vor să aibă copii, ghici ce va face.

⏹️ Atenție mare la documentele pe care i le servim pentru a fi analizate, simplificate sau care sunt folosite pentru a crea alte documente similare. Din nou, datele trebuie să fie relevante, complete, calitative și fără bias-uri.

⏹️ Bugetăm mentenanța AI-ului. Nu, mentenanța nu este ca la un software clasic, aici trebuie continuu monitorizat. Trebuie proceduri de intervenție umană rapidă dacă algoritmul o „ia pe ulei” și începe să zică prostii, dacă are loc un prompt hack, dacă greșește sau jignește. Responsabilități clar asumate, toată lumea trebuie să știe către cine se adresează dacă se întâmplă ceva (escalation path). Toate acestea costă – timp, bani, intervenție umană.

⏹️ Planificăm integrările din timp; dacă vrem ca AI-ul nostru generativ să se conecteze la diverse surse de date, gen CRM sau ERP astfel încât angajații să „poată vorbi” cu datele, chestiile astea trebuie analizate, testate, re-testate, făcut un pilot, culese informații și abia apoi deployment. Foarte multe lucruri nasoale se pot întâmpla.

⏹️ Training-ul angajaților în legătură cu setarea corectă a așteptărilor (AI-ul mai „minte” by design), best practice-uri legate de prompt-uri, căi de notificare a unor incidente.

AI Generativ public

Din păcate, aproape nicio organizație – din sector privat sau public – nu a făcut training-uri angajaților despre cum aceștia pot folosi AI Generativ public în siguranță. Sunt două abordări: permitem orice cu AI Generativ sau interzicem cu totul AI Generativ. Și totuși, există căi legale și sigure de utilizare a modelelor AI Generative.

Cum folosim astfel de modele în siguranță?

⏹️ Dacă AI-ul Generativ pe care îl folosiți este public, trebuie să presupuneți că tot ce introduceți în el va fi folosit și refolosit de către producătorul AI-ului. Da, știu, la ChatGPT îi poți spune să nu învețe din prompt-urile tale, însă metadatele tot se duc și influențează rețelele neuronale. Îți „lași urma” în sistem. Deci porniți cu presupunerea că cineva „vede” ce faceți.

⏹️ Nu băgați niciodată date confidențiale ale organizației – mail-uri, excel-uri, PDF-uri, contracte, documente, înștiințări, date personale etc – în AI-ul generativ. Da, știu că le poate analiza, nu o faceți.

⏹️ Atenție la conținutul generat, el ar putea fi afectat de problema „convergenței” rezultatelor. Pe scurt, oamenii au tot publicat conținut generat de AI care a tot fost reingerat de AI. Drept urmare, statistic vorbind, un prompt de genul „vreau și eu un eseu despre Eminescu” va produce cam același eseu în linii mari. Cine vrea să înțeleagă știința din spate, feel free to dig deeper.

⏹️ Și apropo de asta, riscul utilizării AI-urilor generative de imagini este că acestea pot „copia” o imagine cu copyright (nu este nevoie să fie 1:1) și să vă treziți peste ani cu o notificare că datorați niște mii de EUR unei persoane sau organizații care are copyright-ul pozei.

⏹️ Atenție la validitatea rezultatelor – AI-ul „minte”. Vorbim de modele statistice, imprecise. Rolul AI-ului generativ, de exemplu din zona LLM-urilor (generatoare de texte) este să întrețină conversații în limbaj uman, nu să genereze conținut calitativ și adevărat. Fiecare LLM are un disclaimer prin care spune să îi verifici rezultatele. Presupuneți întotdeauna că el minte (sau greșește, cum mi-a spus un consultant).

⏹️ Unde AI-ul generativ este foarte bun este la stabilirea unor structuri – fie ele text, fie grafice. De exemplu, vrei să vă scrieți CV-ul; ignorați conținutul, care s-ar putea să fie ceva similar cu alte CV-uri însă folosiți structura dată, capitole etc pentru a o umple cu conținutul vostru. La AI-urile generatoare de imagini, vedeți ruta creativă pe care AI-ul a folosit-o și încercați să creați ceva similar în Photoshop/ Corel etc. Astfel, aveți conținut original însă pe o structură bună și nouă.

⏹️ Atenție la titluri și subtitluri. Când generați conținut în limba română, LLM-urile nu au o bază atât de mare de învățare ca pentru limba engleză. Așa că best practice-ul este să scrieți prompt-ul în engleză, să generați conținut, îl rafinați și modificați și apoi îl traduceți. Când îl traduceți, s-ar putea să vă scape faptul că toate cuvintele din titluri și subtitluri sunt scrise cu litere mare. Asta este o „semnătură” de AI pe care toată lumea o cunoaște.

Ca o concluzie

AI-urile generative sunt peste tot și sunt folosite. Ușurează munca enorm de mult, însă aduc riscuri noi. Trebuie schimbate mindset-uri.

Veniți la training-uri sau invitați specialiști să vă țină training-uri în firme. Altfel, riscați să aveți data breach-uri, să aveți rezultate greșite sau să încălcați copyright-uri. Nu vă temeți de AI, învățați să obțineți maximum din utilizarea lor.

Alte articole

Ce facem când ni se cer înregistrări din call-center?

Mai mult

Testimoniale

Mai mult

Alternative la Google Analytics, Facebook Pixel și Mailchimp

Mai mult
Photo by Hal Gatewood on Unsplash

Conformitatea cookie-urilor și a trackerelor

Mai mult

Checklist #GDPR pentru #CCTV, adică sistem de camere de supraveghere

Mai mult

Cum să scriem o Notificare de confidențialitate/ Privacy Notice.

Mai mult

Cum asiguri conformitatea la GDPR a unui magazin online

Mai mult

Cum gestionezi un incident de încălcare a securității datelor cu caracter personal

Mai mult

Ce înseamnă un Data Protection Officer

Mai mult

Contact

Hai să vorbim