scorecardresearch
Premium

AI Technology : ડીપ ફેક ટેકનોલોજી, કૃત્રિમ બુદ્ધિમત્તાના વધતા જોખમને કારણે સામાજિક વિશ્વાસ તૂટવાનો ભય

AI Technology : એક અભ્યાસ અનુસાર, ડીપ ફેક (deepfake) ટેક્નોલોજી દ્વારા બનાવવામાં આવેલા વીડિયોમાં સામાન્ય રીતે માત્ર મહિલાઓ જ જોવા મળે છે. તેનો હેતુ અશ્લીલ ફિલ્મોનો બિઝનેસ વધારવાથી લઈને મહિલાને બદનામ કરવા, બદલો લેવા અથવા બ્લેકમેલિંગ સુધીનો હોઈ શકે છે.

Deep Fake AI Technology
AI ડીપ ફેક ટેક્નોલોજીનો દુર ઉપયોગ

AI Technology : સમય સાથે, વિજ્ઞાન દરરોજ નવી ઊંચાઈઓ પર પહોંચવા તરફ આગળ વધી રહ્યું છે. માનવજીવનને અનુકૂળ બનાવવાની તેની સિદ્ધિઓને નકારી શકાય તેમ નથી. પરંતુ તેની સમાંતર, ટેક્નોલોજીના દુરુપયોગથી ઉદ્ભવતા જોખમોનો સામનો કરવો સામાન્ય લોકો તેમજ સરકાર માટે પડકારરૂપ સાબિત થઈ રહ્યું છે. આ સંદર્ભમાં, કૃત્રિમ બુદ્ધિમત્તાના ઉપયોગો, શક્યતાઓ અને આશંકાઓ વિશે ચર્ચા ચાલી રહી છે. પરંતુ સમસ્યા એ છે કે આ ઉચ્ચ સ્તરીય ટેક્નોલોજીની વર્તમાન સ્થિતિમાં તેની ઉપયોગીતા કરતાં તેના જોખમો પણ સામે આવી રહ્યા છે.

બે અભિનેત્રીઓનો ડોકટરેડ વિડીયો વ્યાપક ભય સૂચવે છે

છેલ્લા કેટલાક દિવસોમાં દેશની બે અભિનેત્રીઓનો જે વીડિયો સર્ક્યુલેટ થયો હતો તેને ડોક્ટરેડ કરીને તૈયાર કરવામાં આવ્યો હતો. તેની પ્રકૃતિ અને પરિણામ માત્ર અનુમાન કરી શકાય છે. વાસ્તવમાં, આર્ટિફિશિયલ ઈન્ટેલિજન્સ હેઠળ ‘ડીપ ફેક’ ટેક્નોલોજી દ્વારા, એક અભિનેત્રીના ચહેરાને અન્ય મહિલાની શારીરિક મુદ્રા સાથે જોડવામાં આવી હતી અને તેને અશ્લીલ દેખાવ આપવામાં આવ્યો હતો. આ એક મહિલાની ગરિમાના ઉલ્લંઘનનો મામલો છે. પરંતુ આ માટે ઉપયોગમાં લેવાતી ડીપ ફેક ટેકનોલોજી તેના વ્યાપક જોખમો દર્શાવે છે.

સરકારે સોશિયલ મીડિયા કંપનીઓને તપાસ કરવા કહ્યું

બે અભિનેત્રીઓ સાથેની આ ઘટના બાદ સ્વાભાવિક રીતે જ ચિંતા વ્યાપી ગઈ છે. આ મુદ્દા પર, સરકારે મોટી સોશિયલ મીડિયા કંપનીઓને ખોટી માહિતી, ડીપ ફેક અને નિયમોનું ઉલ્લંઘન કરતી અન્ય સામગ્રીને ઓળખવા અને રિપોર્ટિંગના છત્રીસ કલાકની અંદર તેને દૂર કરવા માટે સલાહ પણ જાહેર કરી છે.

ઉલ્લેખનીય છે કે, ડીપ ફેક વીડિયોને ‘સિન્થેટિક મીડિયા’ પણ કહેવામાં આવે છે. આના દ્વારા, વ્યક્તિના ફોટોગ્રાફ અથવા વિડિયોને તેની સંમતિ અથવા જાણ વિના અન્ય વ્યક્તિના ફોટોગ્રાફ અથવા વિડિયો સાથે બદલવામાં આવે છે. આર્ટિફિશિયલ ઇન્ટેલિજન્સથી સજ્જ ટેક્નોલોજીનો તાજેતરના ભૂતકાળમાં વિસ્તરણ થયો હોવાથી, ઘણા લોકોને પણ આ ટેક્નોલોજીની ઍક્સેસ મળી છે, જેઓ તેનો બિનજરૂરી ઉપયોગ કરી શકે છે. જો કોઈ જાણીતી સેલિબ્રિટીના ફોટોગ્રાફ્સ કે વીડિયો સાથે છેડછાડ કરવામાં આવશે તો આવા કેસમાં કાયદાકીય પગલાં લેવા અંગેની ગતિવિધિમાં વધારો થશે. પરંતુ જો આના દ્વારા સામાન્ય લોકોને નિશાન બનાવવામાં આવશે, તો તેમની સ્થિતિ શું હશે તે સમજી શકાય છે.

એક અભ્યાસ અનુસાર, ડીપ ફેક ટેક્નોલોજી દ્વારા બનાવવામાં આવેલા અશ્લીલ વીડિયોમાં સામાન્ય રીતે માત્ર મહિલાઓ જ જોવા મળે છે. તેનો હેતુ અશ્લીલ ફિલ્મોનો બિઝનેસ વધારવાથી લઈને મહિલાને બદનામ કરવા, બદલો લેવા અથવા બ્લેકમેલિંગ સુધીનો હોઈ શકે છે. જો આપણે તેની જમીની અસર પર નજર કરીએ તો, આ ટેક્નોલોજી મહિલાઓ સામે જાતીય હિંસાના નવા સ્વરૂપ તરીકે ઉભરી આવી છે.

આ પણ વાંચો – Uttarakhand Development and Disaster : ઉત્તરાખંડના પહાડોમાં વિકાસ સાથે અકસ્માતો, જનજીવન આફતમાં

પરંતુ તેના જોખમનો વિસ્તાર આનાથી પણ આગળ છે, જેમાં કોઈપણ વ્યક્તિને મનસ્વી રીતે વીડિયો બનાવીને બ્લેકમેલ કરી શકાય છે, તેને કોઈ એવી પ્રવૃત્તિમાં ફસાવી શકાય છે, જેમાં તે ક્યારેય સામેલ ન થયો હોય. વધુમાં, બહુ-સ્તરવાળી સાયબર ધમકીઓનું નિર્માણ જાહેર અભિપ્રાયને ખોટી રીતે દિશામાન કરી શકે છે. ટેક્નોલોજી પોતે જ વિજ્ઞાનની સિદ્ધિ છે, પરંતુ તેની અસર સકારાત્મક હશે કે નકારાત્મક તે તેનો ઉપયોગ વ્યક્તિ કેવા પ્રકારે કરશે તે તેના પર નિર્ભર છે. દેખીતી રીતે, જો સમયાંતરે ટેક્નોલોજીના દુરુપયોગના બગડતા સ્વરૂપને અંકુશમાં લેવા માટે વર્તમાન કાયદાકીય વ્યવસ્થાને સમાંતર નક્કર વ્યવસ્થા કરવામાં નહીં આવે, તો તેના ઘાતક પરિણામો આવશે.

Web Title: Deep fake ai technology after incident with two actresses rashmika mandanna katrina kaif jsart import km

Best of Express
અચૂક વાંચો : સૌથી વધુ વંચાયેલ આ સમાચાર ×