Friday, June 9, 2023
HomeTop Storiesઇમેજ બૉટોને તાલીમ આપવા માટે કથિત રીતે કામનો ઉપયોગ કરવા બદલ કલાકાર...

ઇમેજ બૉટોને તાલીમ આપવા માટે કથિત રીતે કામનો ઉપયોગ કરવા બદલ કલાકાર AI જનરેટર પર દાવો કરે છે

એઆઈ-જનરેટેડ ઈમેજો જે કલાકારની શૈલીની નકલ કરે છે તે ઓળખની ચોરીનું એક સ્વરૂપ છે અને તે ખૂબ જ સર્જનાત્મક સાથે સ્પર્ધા કરે છે જેમના કામનો ઉપયોગ મોડેલોને તાલીમ આપવા માટે કરવામાં આવ્યો હતો, એક ઉત્તમ કલાકાર બે કૃત્રિમ બુદ્ધિ પર દાવો માંડ્યો કંપનીઓએ ફોક્સ ન્યૂઝને જણાવ્યું હતું.

AI પ્લેટફોર્મ જેમ કે મિડજર્ની અને સ્ટેબલ ડિફ્યુઝન સમગ્ર ઈન્ટરનેટ અને અન્ય સ્ત્રોતોમાંથી ટેક્સ્ટ અને ઈમેજીસનો ઉપયોગ કરે છે તેમના ગ્રાહકો માટે છબીઓ બનાવવા માટે તેમના મશીનોને તાલીમ આપો.

સાન ફ્રાન્સિસ્કો સ્થિત કલાકાર અને ચિત્રકાર કાર્લા ઓર્ટિઝે દાવો કર્યો છે કે તેમના આર્ટવર્કનો ઉપયોગ ટેકને તાલીમ આપવા માટે કરવામાં આવ્યો હતો, તેણે જાન્યુઆરીમાં બંને કંપનીઓ સામે કૉપિરાઇટ ઉલ્લંઘન અને પ્રચારના અધિકારના ઉલ્લંઘન માટે દાવો દાખલ કર્યો હતો.

ઓર્ટિઝે ફોક્સ ન્યૂઝને કહ્યું, “કોઈ વ્યક્તિ મારા કામની નકલ કરી શકે છે કારણ કે એક કંપનીએ તેમને મંજૂરી આપી છે.” “તે અમુક પ્રકારની ઔદ્યોગિક-સ્તરની ઓળખની ચોરી જેવું લાગે છે.”

“એવું લાગે છે કે કોઈએ તમારા માટે કામ કર્યું છે તે બધું લઈ લીધું છે અને બીજા કોઈને નફા માટે તેની સાથે જે જોઈએ તે કરવાની મંજૂરી આપી છે,” તેણીએ કહ્યું.

ઓર્ટિઝે કહ્યું કે તેણીએ દાવો દાખલ કર્યો તે પહેલાં, તેણી “કાર્લા ઓર્ટીઝની શૈલીમાં” છબી બનાવવા માટે મિડજર્ની અને સ્ટેબલ ડિફ્યુઝનને પ્રોમ્પ્ટ કરી શકે છે અને AI પ્લેટફોર્મ તેનું અનુસરણ કરશે.

સ્ટેબિલિટી AI, સ્ટેબલ ડિફ્યુઝનના નિર્માતાએ એપ્રિલમાં ઓર્ટીઝના કેસને બરતરફ કરવા માટે એક દરખાસ્ત દાખલ કરી, દાવો કર્યો કે કલાકાર “એક પણ કથિત રીતે ઉલ્લંઘન કરતી આઉટપુટ ઇમેજને ઓળખવામાં નિષ્ફળ ગયા, એકલા છોડી દો જે તેમના કોઈપણ કૉપિરાઇટ કરેલા કાર્યો સાથે નોંધપાત્ર રીતે સમાન છે.” મિડજર્નીએ તે જ દિવસે સમાન ગતિવિધિ દાખલ કરી.


આ ફોટો દ્રષ્ટાંત એક આર્ટિફિશિયલ ઇન્ટેલિજન્સ મંગા કલાકારને તેમની ઓળખને સુરક્ષિત રાખવા માટે મોજા પહેરે છે.
ગેટ્ટી ઈમેજીસ દ્વારા એએફપી

ઓર્ટિઝે ફોક્સ ન્યૂઝને જણાવ્યું હતું કે, “આ મોડલ્સ માટે તમે આજે જુઓ છો તે છબી અથવા તે બાબત માટે કંઈપણ જનરેટ કરવા માટે, તેઓને પહેલા મોટા પ્રમાણમાં ડેટા, ડેટા કે જેમાં ઇમેજ અને ટેક્સ્ટનો સમાવેશ થાય છે તેના પર તાલીમ આપવી પડશે.” “તે ડેટા, તેમાં બધું શામેલ છે.”

“તેમાં લોકોના તબીબી રેકોર્ડ્સનો સમાવેશ થાય છે, તેમાં લોકોના વ્યવસાયો, આવાસ, કેટલાક કિસ્સાઓમાં લોકોની સમાનતા અને અમારા કિસ્સામાં પણ, મારી સંપૂર્ણ આર્ટવર્ક અને ખાસ કરીને મારી ફાઇન આર્ટનો સમાવેશ થાય છે,” ઓર્ટિઝે ચાલુ રાખ્યું.

અન્ય કલાકારોએ તે જ રીતે તેમના મોડલને તાલીમ આપવા માટેની ટેક કંપનીઓની પદ્ધતિઓ અને મશીન લર્નિંગ બનાવવા માટે ડેટાના શોષણની સંભાવનાની તપાસ કરી છે.

તેમ છતાં, સંગીતકારો, ચિત્રકારો અને લેખકો સહિતના કલાકારો તેમની શૈલીનો કૉપિરાઇટ કરી શકતા નથી, એક વકીલે ગયા મહિને ફોક્સ ન્યૂઝને જણાવ્યું હતું.

તેણીએ દાવો દાખલ કર્યા પછી, ઓર્ટિઝે કહ્યું કે મિડજર્ની અને સ્ટેબલ ડિફ્યુઝનએ છબીઓ બનાવવા માટે તેની કલામાંથી ખેંચાયેલા ડેટાનો ઉપયોગ કરવાનું બંધ કર્યું.


મિડજર્નીની વેબસાઈટ, એઆઈ આર્ટ બનાવવા માટે સક્ષમ આર્ટિફિશિયલ ઈન્ટેલિજન્સ ટૂલ, સ્માર્ટફોન પર જોવા મળે છે.
મિડજર્નીની વેબસાઈટ, એઆઈ આર્ટ બનાવવા માટે સક્ષમ આર્ટિફિશિયલ ઈન્ટેલિજન્સ ટૂલ, સ્માર્ટફોન પર જોવા મળે છે.
ગેટ્ટી ઈમેજીસ દ્વારા ફોટોથેક

પરંતુ તેણીની ચિંતા હજુ પણ છે.

ઓર્ટિઝે કહ્યું, “તે તમારા જેવા દેખાવા માટે અને સંભવિત રૂપે તમારા પોતાના બજારમાં સ્પર્ધા કરવા માટે, તમારા પોતાના નામ અને તમારા પોતાના કાર્યનો ઉપયોગ કરીને એવી છબીઓ બનાવે છે,” ઓર્ટિઝે કહ્યું. “તમે તમારી એક ડિજિટલ નકલ સાથે સ્પર્ધા કરી રહ્યાં છો, એક એવા મશીન સાથે જે ઊંઘતું નથી, આરામ કરતું નથી અને ચૂકવણી કરતું નથી.”

ગોલ્ડમૅન સૅક્સના માર્ચ રિપોર્ટ અનુસાર AI વિશ્વભરમાં 300 મિલિયન નોકરીઓને અસર કરી શકે છે. અને IBM એ તાજેતરમાં જાહેરાત કરી હતી કે તે એવા ઉમેદવારોની શોધમાં થોભશે જે AI બદલી શકે છે, CEO અરવિંદ કૃષ્ણાએ આગાહી કરી છે કે 30% સુધી બિન-ગ્રાહક-સામનો ભૂમિકાઓ – અથવા લગભગ 8,000 નોકરીઓ – આગામી પાંચ વર્ષમાં દૂર થઈ શકે છે.

“તે માત્ર ચિત્રકારો અને ચિત્રકારો અને અવાજ કલાકારો અને સંગીતકારો હશે નહીં,” ઓર્ટિઝે ફોક્સ ન્યૂઝને જણાવ્યું. “આ લગભગ દરેક વ્હાઇટ કોલર જોબ માટે આવી રહ્યું છે જેની તમે કલ્પના કરી શકો.”

“અને ફરીથી, તે બધું અમારા ડેટા સાથે કરવામાં આવ્યું છે,” તેણીએ કહ્યું. “આ બધું અમારા કામથી થઈ ગયું છે.”

મિડજર્ની કે સ્ટેબિલિટી એઆઈએ ટિપ્પણી માટેની વિનંતીઓ પરત કરી નથી.

Source link

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

LATEST

CATEGORIES

Most Popular