![]() Comentarii Adauga Comentariu _ ChatGPT este sexist? Chatbot-ul AI i s-a cerut să genereze 100 de imagini ale directorilor executivi, dar doar UNA a fost femeie (și 99% dintre secretare erau femei...)![]() _ ChatGPT este sexist? Chatbot-ul AI i s-a cerut să genereze 100 de imagini ale directorilor executivi, dar doar UNA a fost femeie (și 99% dintre secretare erau femei...)Imaginați-vă un investitor de succes sau un director executiv bogat – cu cine ți-ai imagina? Dacă întrebi ChatGPT, aproape sigur este un alb om. Chatbot-ul a fost acuzat de „sexism” după ce i s-a cerut să genereze imagini cu oameni în diverse locuri de muncă. Din 100 de teste, a ales un bărbat de 99 de ori. În schimb, când i s-a cerut să facă acest lucru pentru o secretară, a ales o femeie doar o dată. Studiul efectuat de site-ul de finanțe personale Finder a constatat că, de asemenea, alege o persoană albă de fiecare dată - în ciuda faptului că nu a specificat o rasă. Rezultatele nu reflectă realitatea. Una din trei companii la nivel global sunt deținute de femei, în timp ce 42% din Liderii de afaceri au avertizat că modelele AI sunt „prejudecate” și au cerut balustrade mai dure pentru a se asigura că nu reflectă părtinirile proprii ale societății. Este acum se estimează că 70% dintre companii folosesc sisteme automate de urmărire a candidaților pentru a găsi și angaja talente. Au fost ridicate îngrijorări că dacă aceste sisteme sunt instruite în moduri similare cu OpenAI, proprietarul ChatGPT, nu este primul gigant tehnologic care a fost criticat din cauza rezultatelor care par să perpetueze stereotipurile de modă veche. Luna aceasta, Meta a fost acuzat că a creat un generator de imagini AI „rasist”, când utilizatorii au descoperit că nu-și putea imagina un bărbat asiatic cu o femeie albă. Între timp, Google era Cele mai recente cercetări au cerut celor 10 dintre cei mai populari generatori de imagini gratuite de pe ChatGPT să pictați o imagine a unei persoane obișnuite într-o serie de lucrări de mare putere. Toate generatoarele de imagini - care au înregistrat milioane de conversații - a folosit software-ul de bază OpenAI Dall-E, dar au primit instrucțiuni și cunoștințe unice. Peste 100 de teste, fiecare a arătat o imagine a unui bărbat aproape de fiecare dată - doar o dată a arătat o femeie. Acesta a fost momentul în care s-a cerut să arate „cineva care lucrează în finanțe”. Când fiecărui generator de imagini li sa cerut să arate o secretară, de nouă din 10 ori a arătat o femeie și o singură dată a arătat un bărbat. Deși rasa nu a fost specificată în descrierile imaginilor, toate imaginile pau fost furnizate pentru rolurile păreau a fi albe. Liderii de afaceri au cerut aseară balustrade mai puternice încorporate în modelele AI pentru a se proteja împotriva unor astfel de părtiniri. Derek Mackenzie, directorul executiv al specialiștilor în recrutare tehnologică Investigo, a declarat: „Deși capacitatea AI generativă de a procesa cantități mari de informații are, fără îndoială, potențialul de a ne ușura viața, nu putem scăpa de faptul că că multe modele de antrenament sunt împletite cu prejudecăți bazate pe părtinirile oamenilor. „Acesta este încă un exemplu că oamenii nu ar trebui să aibă încredere orbește în rezultatele AI generative și că abilitățile de specialitate necesare pentru a crea modele de generație următoare. iar contracararea părtinirii umane încorporate este esențială.” Pauline Buil, de la firma de marketing web Deployteq, a declarat: „Pentru toate beneficiile sale, trebuie să fim atenți ca AI generativă să nu producă rezultate negative care au consecințe grave asupra societății, de la încălcarea dreptului de autor până la discriminare. „Resultatele dăunătoare sunt reintroduse în modelele de instruire AI, ceea ce înseamnă că părtinirea este tot ceea ce unele dintre aceste modele AI vor cunoaște vreodată și care trebuie puse la cale. sfârșit.” Ruhi Khan, cercetător în feminism și inteligență artificială la London School of Economics, a spus că ChatGPT „a apărut într-o societate patriarhală, a fost conceptualizat și dezvoltat în mare parte de bărbați cu propriul set de părtiniri. și ideologii și hrănite cu datele de antrenament care sunt, de asemenea, viciate de natura sa istorică. „Modelele AI precum ChatGPT perpetuează aceste norme patriarhale prin simpla replicare a acestora”. Site-ul web al OpenAI. admite că chatbot-ul său „nu este lipsit de prejudecăți și stereotipuri” și îndeamnă utilizatorii să „examineze cu atenție” conținutul pe care îl creează. Într-o listă de puncte de „ai în vedere”, se spune că modelul este înclinat spre vederile occidentale. Acesta adaugă că este un „domeniu de cercetare în curs de desfășurare” și a apreciat feedback-ul cu privire la modul de îmbunătățire. Compania americană avertizează, de asemenea, că poate „întări” prejudecățile utilizatorilor în timp ce interacționează cu acesta, cum ar fi puternice opinii despre politică și religie. Sidrah Hassan de la AND Digital: „Evoluția rapidă a IA generativă a făcut ca modelele să dispară fără îndrumarea și intervenția umană adecvată. „Pentru a fi clar , când spun „îndrumare umană”, aceasta trebuie să fie diversă și intersecțională, pur și simplu a avea o îndrumare umană nu echivalează cu rezultate pozitive și incluzive.’ O purtătoare de cuvânt a AI a spus: „Parțialitatea este un lucru semnificativ. problema în industrie și avem echipe de siguranță dedicate cercetării și reducerii părtinirii și a altor riscuri în modelele noastre. „Folosim o abordare cu mai multe direcții pentru a o aborda, inclusiv cercetarea celor mai bune metode pentru modificarea datelor de formare și a solicitărilor pentru a obține rezultate mai echitabile, pentru a îmbunătăți precizia sistemelor noastre de filtrare a conținutului și pentru a îmbunătăți atât supravegherea automată, cât și cea umană. „Repetăm în mod continuu modelele noastre pentru a reduce părtinirea și atenua ieșiri dăunătoare.'
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu