Skip to main content

Obrazy generovane umelou inteligenciou sa zdaju byť všadeprítomné. Sú vo videohrách, ktoré hráte, vo filmoch, ktoré pozeráte, a zaplavili sociálne médiá. Používajú sa dokonca na propagáciu fyzického hardvéru, ktorý skutoční, ľudskí umelci používajú na vytváranie digitálnych malieb a ilustrácií, čo je nesmiernou frustráciou pre tých, ktorí už majú pocit, že sú technológiou vytlačovaní.

Všadeprítomnosť tejto technológie sa javí byť obzvlášť nespravodlivá voči tvorcom, ktorí bojujú proti použitiu ich diel bez súhlasu alebo kompenzácie na zlepšenie presne tejto veci, ktorá ohrozuje ich kariéru a živobytie. Dátové zásobníky, ktoré prispievajú k trénovaniu generatívnych modelov umelej inteligencie (AI), často obsahujú obrázky zo všetkých kútov internetu bez rozlišovania a niektoré nástroje generátora obrázkov AI umožňujú používateľom nahrať referenčné obrázky, ktoré chcú napodobniť. Mnohí kreatívni profesionáli potrebujú svoju prácu propagovať prostredníctvom sociálnych médií a online portfólií, takže jednoducho odobratie všetkého z internetu nie je uskutočniteľné riešenie. A nedostatok právnej jasnosti okolo technológií AI vytvoril akési prostredie Divokého západu, ktorému je ťažké sa postaviť. Ťažké, ale nie nemožné.

Hoci sú nástroje často komplikované a časovo náročné, niekoľko spoločností AI poskytuje tvorcom spôsoby, ako sa dá ich dielo vyňať z tréningu. A pre vizuálnych umelcov, ktorí chcú širšie ochrany, existujú nástroje ako Glaze a Kin.Art, ktoré robia diela nepoužiteľnými pre tréning. Tu je návod, ako sa orientovať v najlepších riešeniach, ktoré sme doteraz našli.

Odhlásenie sa

Generatívne modely AI závisia od údajov z trénovacích dátových sád a spoločnosti, ktoré ich stoja, sú motivované vyhnúť sa obmedzeniam týchto potenciálnych zásob dát. Aj keď často dovoľujú umelcom odhlásiť ich práce, proces môže byť hrubý a prácný – obzvlášť ak máte rozsiahly katalóg prác.

Odhlásenie zvyčajne vyžaduje odoslanie žiadosti poskytovateľovi AI, buď prostredníctvom špeciálneho formulára alebo priamo prostredníctvom e-mailu, spolu s kópiami a písomnými popismi obrázkov, ktoré chcete chrániť. Navyše, ak ste súhlasili, aby vaše obrázky licencovali tretie strany, podmienky môžu zahŕňať licenciu na tréning AI. Stojí za to preskúmať používateľské dohody pre akékoľvek platformy, na ktorých hostíte svoje práce, aby ste skontrolovali, aké práva nad nimi majú. Ale politiky rôznych nástrojov AI sa líšia – tu je návod, ako sa odhlásiť z niektorých populárnych.

OpenAI DALL-E

OpenAI začal umožňovať tvorcom odstrániť ich práce z ich trénovacích údajov spolu s ich generatívnym modelom AI DALL-E 3 minulý september a je to jeden z jednoduchších procesov na sledovanie. Tvorcovia obsahu alebo vlastníci len musia odoslať formulár pre OpenAI s požiadavkou, aby bolo dielo vylúčené z budúcich trénovacích dátových sád, vrátane kópie obrázku, popisu a zaškrtnutého políčka potvrdzujúceho, že máte práva pre daný obrázok.

Bohužiaľ, musíte odoslať samostatný formulár pre každý obrázok, ktorý chcete vylúčiť z dátových sád OpenAI, čo by mohlo predstavovať tisíce diel pre niektorých; OpenAI nezverejnil, koľko umelcov podstúpilo tento očistec.

Musíte odoslať jeden formulár pre každé dielo, ktoré chcete odhlásiť z tréningu OpenAI, čo jednoducho nie je realistické pre tvorcov s rozsiahlymi portfóliami. Obrázok: OpenAI

Ak hostíte svoje práce iba na vlastnom webe, môže existovať efektívnejšia možnosť. Môžete sledovať pokyny uvedené tu na zablokovanie webového plazivého zariadenia „GPTBot“, ktoré sa používa na scrapovanie dát z verejne dostupných internetových zdrojov, čo by malo ochrániť všetok obsah na ňom. Nevýhodou tejto metódy je, že obrázky zverejnené kdekoľvek mimo týchto ochránených stien, napríklad na sociálnych médiách, sú stále vystavené riziku scrapovania. Odoslanie formulára aspoň zaisťuje, že vaša práca je chránená širšou sieťou, ak OpenAI už nezískalo obrázky prostredníctvom licencovaných tretích strán.

Oba tieto procesy ponúkajú ochranu len proti zahrnutiu do budúcich trénovacích dátových sád. OpenAI tvrdí, že ich modely AI si nezachovávajú žiadne informácie, na ktorých už boli trénované, takže ak si myslíte, že vaša práca už bola spotrebovaná DALL-E 3 alebo jej predchádzajúcimi iteráciami, je neskoro na to, aby ste ju nechali odstrániť.

DALL-E 3 je tiež model používaný Image Creatorom od Designer, nástrojom Microsoftu, ktorý sa predtým nazýval Bing Image Creator. Ako taký proces odhlásenia s OpenAI priamo by tiež malo zabrániť, aby bol Image Creator trénovaný na vašich prácach.

Adobe Firefly

Samozrejme, pre každú spoločnosť AI, ktorá dovoľuje umelcom odstrániť ich práce z trénovacích údajov, existuje mnoho iných, ktoré verejne neoznamujú, že majú takúto službu. A ak modely trénujú na platforme, ktorú vlastnia, užívateľom tejto platformy nemusí byť dovolené vôbec sa odhlásiť. To platí pre kreatívneho giganta Adobe, ktorý používa model s názvom Firefly v celej svojej súprave Creative Cloud, vrátane generatívneho nástroja na vyplnenie v Photoshope.

Adobe hrdý hlása, že Firefly je komerčne a právne bezpečný, pretože je úplne vytrénovaný na vlastnej platforme pre zásobovanie obrázkami spoločnosti, Adobe Stock. Ale pre prispievateľov do Adobe Stock neexistuje žiadny spôsob, ako sa odhlásiť z tréningu modelov AI Adobe, čo viedlo k tomu, že niektorí existujúci používatelia kritizovali spoločnosť, že nežiadali o ich povolenie. Ak nechcete, aby sa vaša práca používala na zlepšenie Firefly, jednoducho to nedávajte na Adobe Stock, bodka.

Nemôže to byť zreteľnejšie ako táto čiara z FAQ Adobe. Ak nechcete trénovať Firefly, vyvarujte sa Adobe Stock. Obrázok: Adobe

V zásade by prístup Adobe mal znamenať, že používatelia, ktorí nepoužívajú Stock, by sa nemuseli obávať Firefly. Ale skutočnosť je taká, že na platformu bolo nahraných množstvo pirátskych prác. Ak zistíte, že niekto na Adobe Stock neoprávnene nahral vašu prácu, môžete poslať Adobe upozornenie na porušenie IP na jej odstránenie z platformy.

Meta

Tvorcovia, ktorí sa chcú vyhnúť tréningu modelov AI Meta, budú musieť predvádzať podobné kúsky. Meta používa „informácie zo svojich produktov a služieb“ na tréning svojich generatívnych modelov AI, takže čokoľvek osobné, čo nahrávate alebo ste historicky nahrali na platformy ako Facebook, Instagram a Threads, je vhodné pre tréning AI. Ak nemáte účet na žiadnom z týchto služieb, potenciálne ste sa vyhli kŕmeniu jeho AI stroja, ale zmazanie existujúcich účtov a/alebo nenahrávanie budúcich prác na ne je ďalšia najlepšia vec.

Môžete odoslať formulár pre Meta s požiadavkou, aby spoločnosť opravila alebo odstránila osobné informácie, ktoré sa používajú na tréning ich generatívnych modelov AI, ale iba ak boli tieto informácie poskytnuté tretou stranou. Nedovolí vám vylúčiť napríklad umenie, ktoré ste dobrovoľne prezentovali na Instagrame. Mnohí umelci to tiež našli ako frustrujúci proces, kritizujúc, ako často nástroj nie je schopný spracovať požiadavky. Konceptuálna umelkyňa Bethany Berg Wired povedal, že odstraňovací formulár sa zdal byť „len falošným PR kúskom, aby to vyzeralo, že skutočne skúšajú niečo robiť.“

Len si zapamätajte, že Meta si ponechá nejaké práva na akýkoľvek obsah, ktorý na svoje platformy nahrajete, takže najúčinnejším riešením je ich úplne sa vyhnúť. Obrázok: Meta

Okrem toho môžete obmedziť, aké osobné informácie sa tretími stranami delia s Metou, a spravovať svoju aktivitu mimo Facebook. Tento nástroj zobrazí, ktoré stránky a služby dávajú vaše údaje Mete a umožnia vám prerušiť spojenie, ktoré viaže vašu identitu s takýmito údajmi. Tým sa nedajú vymazať údaje, ktoré už boli nahrané, ale malo by to umožniť užívateľom monitorovať, či platformy, o ktorých vedia, že hostia ich práce, potenciálne poskytujú tieto informácie späť Mete priamo.

To však povedané, Meta tiež používa „informácie, ktoré sú verejne dostupné online“ na tréning jeho generatívnych modelov AI a nezverejňuje svoje dátové sady. Takže neexistuje spôsob, ako presne vedieť, čo už je v tom obrovskom obsahu bazénu – a nie je žiadna absolútne istá cesta, ako sa držať von.

Čo s Stability AI, Midjourney a podobne?

Dve z najpopulárnejších generatívnych nástrojov AI – Midjourney a Stable Diffusion od Stability AI – odstránia materiály porušujúce autorské práva podľa Zákona o digitálnom miléniu o autorských právach (DMCA). Ale táto informácia je schovalá v ich príslušných politikách Všeobecných podmienok a procesy sú hrubé. To tiež nie je priamo účelný nástroj na odhlásenie a ani jedna spoločnosť neposkytuje prostriedky na odhlásenie diela z budúcich trénovacích dátových sád.

Pre obe služby budete musieť kontaktovať spoločnosti priamo. Midjourney je dostupný na takedown@midjourney.com. Pre Stability AI pošlite svoje požiadavky na mariya@stability.ai a legal@stability.ai. Podmienky používania Stability špecifikujú, čo by ste mali poskytnúť, ale informácie požadované Midjourney a väčšinou DMCA poznámkami k porušeniu autorských práv obvykle obsahujú popis pôvodných prác, kde je porušujúci obrázok umiestnený, vaše kontaktné informácie a kópiu vášho podpisu.

Iní menší poskytovatelia AI môžu tiež poskytnúť podobný prístup k odstraňovaniu údajov, ktoré porušujú práva na duševné vlastníctvo vďaka predpisom ako DCMA, s rozličným úspechom – ak si nie ste istí, skúste kontaktovať poskytovateľa AI priamo.

Ako inak môžem chrániť svoju prácu proti generatívnemu AI?

Keďže už toto všetko je povedané, je zrejmé, že umelcové možnosti pri priamom zaobchádzaní so spoločnosťami AI sú dosť obmedzené. Zvonku však existuje niekoľko nástrojov a služieb, ktoré môžu tvorcom poskytnúť lepšiu obranu – alebo dokonca útočné – prostriedky pri obrane. Rôzne nástroje fungujú odlišne, ale všeobecne povedané, prevádzajú vaše vizuálne umenie procesmi, ktoré mätú alebo blokujú efektívny tréning. Takže, aj keď je vaša práca scrapovaná pre model AI, daný model (ideálne) sa nenaučí ju reprodukovať.

Glaze
Keď spustíte Glaze, budete musieť dať mu