Image 1
Image 2
Ciornă automată

DREPTURILE DE AUTOR CONTRA INTELIGENȚEI ARTIFICIALE

Nightshade: Scutul digital al artiștilor împotriva încălcării drepturilor de autor în era AI

Nightshade este un instrument nou cu capacitatea de a otrăvi generatoarele de artă AI. Acest instrument urmărește să corupeze scraping AI și să redea putere artiștilor asupra propriei lor lucrări, iar mulți creativi sunt încântați de această perspectivă.
Share on facebook
Share on whatsapp
Share on email
Share on twitter
Asculta acest articol

Istoric, planta de mărunțișă a fost recunoscută pentru utilizarea sa în intrigile otrăvitoare împotriva monarhilor și conducătorilor. Inspirându-se din această istorie, un instrument inovator numit Nightshade a fost dezvoltat de Ben Zhao, profesor de informatică la Universitatea din Chicago. Scopul acestui instrument este de a proteja artiștii împotriva încălcării drepturilor de autor de către generatorii de artă AI, care adesea sunt antrenați fără permisiunea lor, folosind lucrările lor.

 

 

Nightshade oferă artiștilor capacitatea de a încorpora un pixel invizibil în lucrările lor înainte de publicarea online. Odată ce această operă de artă este inclusă într-un set de date pentru antrenarea unui model AI, pixelul acționează ca un agent perturbator, corupând modelul și compromițându-i funcționalitatea. Instrumentul, în curs de evaluare științifică, a fost prezentat de MIT Technology Review și promite să fie un aliat valoros pentru artiști în lupta împotriva folosirii neautorizate a operelor lor de către tehnologia AI.

 

 

Când Nightshade este aplicat unei imagini, efectele sale sunt perturbatoare pentru modelele AI. Testele dezvoltatorilor au arătat că poate induce erori majore, făcând ca modelele să interpreteze greșit imagini, de exemplu, confundând o pisică cu un balon sau un toaster cu prăjituri. Astfel, output-ul devine inutilizabil, iar odată ce o imagine este “infectată”, devine extrem de dificil de eliminat. Aceasta înseamnă că furnizorii de tehnologie AI vor trebui să investească resurse semnificative pentru a identifica și elimina aceste “injecții”.

 

 

Pe scena actuală a generatoarelor de imagini AI, cum ar fi Midjourney, DALL-E și Stable Diffusion, artiștii nu sunt compensați pentru lucrările lor, iar opțiunile de renunțare sunt limitate sau ineficiente. OpenAI a început să permită renunțarea la DALL-E, dar procesul este complex. Site-ul ihavebeentrained.com facilitează identificarea lucrărilor de artă incluse în seturile de antrenament și ajută la retragerea lor, cu eforturi ce au dus la renunțarea a 78 de milioane de opere de artă.

 

 

În acest context, inițiativa lui Zhao cu Nightshade, și instrumentul său companion, Glaze – care previne furtul stilului artistic prin tehnici similare – devine și mai valoroasă. Echipa lui Zhao intenționează să integreze Nightshade în Glaze, oferind artiștilor posibilitatea de a alege instrumentul potrivit pentru protecția lucrărilor lor.

 

 

Zhao și echipa sa aspiră ca aceste instrumente să reechilibreze puterea în favoarea artiștilor în era digitală dominată de AI. Deși Nightshade nu poate modifica modele AI care au fost deja antrenate cu lucrări de artă neautorizate, promite să ofere artiștilor o mai mare securitate și control asupra modului în care creațiile lor sunt folosite și distribuite în viitor.

 

 

Ciornă automată

Fii primul care comentează

Lasă un răspuns