"படங்கள் வறுமையின் காட்சி இலக்கணத்தைப் பிரதிபலிக்கின்றன"
தீவிர வறுமை மற்றும் பாலியல் வன்முறையில் இருந்து தப்பியவர்களை சித்தரிக்கும் AI-உருவாக்கப்பட்ட படங்கள், ஸ்டாக் புகைப்பட தளங்களில் அதிகளவில் தோன்றி, முக்கிய சுகாதார அரசு சாரா நிறுவனங்களால் பயன்படுத்தப்படுகின்றன, இது நிபுணர்களை "வறுமை ஆபாசத்தின்" நவீன வடிவத்தைப் பற்றி எச்சரிக்கத் தூண்டுகிறது.
நோவா அர்னால்ட், இன் ஃபேர்பிக்சர், கூறினார் பாதுகாவலர்:
"எல்லா இடங்களிலும், மக்கள் இதைப் பயன்படுத்துகிறார்கள். சிலர் AI படங்களை தீவிரமாகப் பயன்படுத்துகிறார்கள், மற்றவர்கள், குறைந்தபட்சம் அவர்கள் பரிசோதனை செய்கிறார்கள் என்பது எங்களுக்குத் தெரியும்."
உலகளாவிய சுகாதாரப் படங்களைப் படிக்கும் ஆண்ட்வெர்ப்பில் உள்ள வெப்பமண்டல மருத்துவ நிறுவனத்தின் ஆராய்ச்சியாளரான ஆர்செனி அலெனிச்சேவ், இந்தக் காட்சிகள் பழக்கமான வறுமைக் கோட்டுகளைப் பிரதிபலிக்கின்றன என்றார்.
அவர் விளக்கினார்: "இந்தப் படங்கள் வறுமையின் காட்சி இலக்கணத்தைப் பிரதிபலிக்கின்றன - வெற்றுத் தட்டுகள், விரிசல் மண், ஒரே மாதிரியான காட்சிகள் கொண்ட குழந்தைகள்."
பசி மற்றும் பாலியல் வன்முறைக்கு எதிரான சமூக ஊடக பிரச்சாரங்களில் பயன்படுத்தப்படும் 100க்கும் மேற்பட்ட AI-உருவாக்கப்பட்ட படங்களை அலெனிச்சேவ் சேகரித்துள்ளார்.
சேற்று நீரில் குழந்தைகள் பதுங்கியிருப்பது அல்லது முகத்தில் கண்ணீர் வழிந்தோடிய திருமண உடையில் ஒரு ஆப்பிரிக்க பெண் இருப்பது போன்ற மிகைப்படுத்தப்பட்ட காட்சிகள் இதில் அடங்கும்.
ஒரு கருத்துப் பகுதியில் லான்செட் குளோபல் ஹெல்த், அலெனிச்சேவ் இந்த நிகழ்வை "வறுமை ஆபாச 2.0" என்று விவரித்தார்.
பயன்பாட்டின் சரியான அளவை அளவிடுவது கடினம் என்றாலும், அது வளர்ந்து வருவதாக நிபுணர்கள் கூறுகின்றனர். பட்ஜெட் கட்டுப்பாடுகள் மற்றும் உண்மையான புகைப்படம் எடுப்பதற்கான ஒப்புதலைப் பெறுவது குறித்த கவலைகள் ஆகியவற்றால் இந்தப் போக்கு தூண்டப்பட்டுள்ளது.
"பல்வேறு நிறுவனங்கள் உண்மையான புகைப்படக் கலைக்குப் பதிலாக செயற்கை படங்களைப் பரிசீலிக்கத் தொடங்கியுள்ளன என்பது தெளிவாகத் தெரிகிறது, ஏனெனில் இது மலிவானது, மேலும் நீங்கள் சம்மதம் மற்றும் எல்லாவற்றையும் பற்றி கவலைப்படத் தேவையில்லை" என்று அலெனிச்சேவ் கூறினார்.
அடோப் ஸ்டாக் மற்றும் ஃப்ரீபிக் போன்றவை "வறுமை" போன்ற தேடல் வார்த்தைகளின் கீழ் ஏராளமான AI-உருவாக்கப்பட்ட படங்களை வழங்குகின்றன.
"அகதிகள் முகாமில் புகைப்பட யதார்த்தமான குழந்தை", "கழிவுகள் நிறைந்த ஆற்றில் ஆசிய குழந்தைகள் நீந்துகிறார்கள்" மற்றும் "காகசியன் வெள்ளை தன்னார்வலர் ஆப்பிரிக்க கிராமத்தில் இளம் கறுப்பின குழந்தைகளுக்கு மருத்துவ ஆலோசனை வழங்குகிறார்" போன்ற தலைப்புகளை பலர் வைத்திருக்கிறார்கள்.
"அவர்கள் மிகவும் இனவெறி கொண்டவர்கள். அவர்கள் அவற்றை வெளியிடக்கூட அனுமதிக்கக்கூடாது, ஏனென்றால் அது ஆப்பிரிக்கா அல்லது இந்தியாவைப் பற்றிய மோசமான ஸ்டீரியோடைப்களைப் போன்றது, அல்லது நீங்கள் அதைச் சொன்னால் போதும்." என்று அலெனிச்சேவ் தொடர்ந்தார்.
ஃப்ரீபிக் தலைமை நிர்வாக அதிகாரி ஜோவாகின் அபெலாவின் கூற்றுப்படி, படங்கள் எவ்வாறு பயன்படுத்தப்படுகின்றன என்பதற்கு தளங்கள் பொறுப்பல்ல. புகைப்படங்கள் தளத்தின் உலகளாவிய பங்களிப்பாளர்களின் சமூகத்தால் உருவாக்கப்படுகின்றன, அவர்கள் தங்கள் படங்கள் வாங்கப்படும்போது உரிமக் கட்டணத்தைப் பெறுகிறார்கள்.
ஃப்ரீபிக், வழக்கறிஞர்கள் மற்றும் தலைமை நிர்வாக அதிகாரிகள் போன்ற தொழில்முறை படங்களில் பன்முகத்தன்மையை ஊக்குவிப்பதன் மூலம் அதன் நூலகத்தில் சார்புநிலையை நிவர்த்தி செய்ய முயற்சித்ததாகவும், ஆனால் வாடிக்கையாளர் தேவை பெரும்பாலும் உருவாக்கப்பட்டு விற்கப்படுவதை இயக்குகிறது என்பதை ஒப்புக்கொண்டதாகவும் அவர் கூறினார்.

செயற்கை நுண்ணறிவால் உருவாக்கப்பட்ட காட்சிகள் ஏற்கனவே அரசு சாரா நிறுவனங்களால் பயன்படுத்தப்பட்டுள்ளன.
2023 ஆம் ஆண்டில், பிளான் இன்டர்நேஷனலின் டச்சு கிளை, கருமையான கண் கொண்ட ஒரு பெண், ஒரு வயதான ஆண் மற்றும் ஒரு கர்ப்பிணி டீனேஜரின் AI- உருவாக்கிய படங்களைப் பயன்படுத்தி குழந்தை திருமணத்திற்கு எதிரான பிரச்சார வீடியோவை வெளியிட்டது.
மோதலில் பாலியல் வன்முறையின் AI-யால் உருவாக்கப்பட்ட "மறு-நடவடிக்கைகள்" இடம்பெறும் ஒரு காணொளியை ஐ.நா. YouTube இல் வெளியிட்டது, இதில் 1993 இல் மூன்று ஆண்களால் பாலியல் பலாத்காரம் செய்யப்பட்டதை விவரிக்கும் ஒரு புருண்டி பெண் அளித்த சாட்சியமும் அடங்கும். அந்த காணொளி பின்னர் நீக்கப்பட்டது.
ஐ.நா. அமைதிப்படை செய்தித் தொடர்பாளர் ஒருவர் கூறியதாவது: “வேகமாக வளர்ந்து வரும் கருவியைப் பயன்படுத்தி ஒரு வருடத்திற்கு முன்பு தயாரிக்கப்பட்ட கேள்விக்குரிய வீடியோ, AI இன் முறையற்ற பயன்பாட்டைக் காட்டுகிறது என்றும், தகவல் ஒருமைப்பாடு, உண்மையான காட்சிகள் மற்றும் கிட்டத்தட்ட உண்மையான செயற்கையாக உருவாக்கப்பட்ட உள்ளடக்கம் ஆகியவற்றைக் கலப்பது தொடர்பான அபாயங்களை ஏற்படுத்தக்கூடும் என்றும் நாங்கள் நம்பியதால், அது அகற்றப்பட்டது.
"புதுமை மற்றும் ஆக்கப்பூர்வமான ஆதரவு உட்பட, மோதல் தொடர்பான பாலியல் வன்முறையால் பாதிக்கப்பட்டவர்களுக்கு ஆதரவளிப்பதற்கான அதன் உறுதிப்பாட்டில் ஐக்கிய நாடுகள் சபை உறுதியாக உள்ளது."
உலகளாவிய சுகாதாரத்தில் நெறிமுறை பிரதிநிதித்துவம் குறித்த நீண்டகால விவாதங்களைத் தொடர்ந்து AI படங்களின் பெருக்கம் ஏற்பட்டுள்ளதாக அர்னால்ட் கூறினார்:
"ஒப்புதல் இல்லாமல் வரும் ஆயத்த AI காட்சிகளை எடுப்பது எளிது என்று கூறப்படுகிறது, ஏனென்றால் அது உண்மையான மனிதர்கள் அல்ல."
அரசு சாரா அமைப்பின் தகவல் தொடர்பு ஆலோசகரான கேட் கார்டோல், இந்தப் படங்கள் அச்சமூட்டுவதாகக் கூறினார்:
"வறுமையை அனுபவிக்கும் மக்களின் நெறிமுறை பிரதிநிதித்துவத்திற்கான போராட்டம் இப்போது உண்மையற்ற நிலைக்கு நீண்டுள்ளது என்பது எனக்கு வருத்தமளிக்கிறது."
ஜெனரேட்டிவ் AI பெரும்பாலும் ஏற்கனவே உள்ளவற்றை மீண்டும் உருவாக்குகிறது என்று நிபுணர்கள் எச்சரிக்கின்றனர் சமூக சார்புகள்.
உலகளாவிய சுகாதார பிரச்சாரங்களில் இத்தகைய படங்களை பரவலாகப் பயன்படுத்துவது இந்தப் பிரச்சினைகளை அதிகரிக்கக்கூடும் என்றும், அவை எதிர்கால AI பயிற்சி தரவுத்தொகுப்புகளில் இணைக்கப்படலாம் என்றும், தப்பெண்ணத்தை அதிகரிக்கக்கூடும் என்றும் அலெனிச்சேவ் குறிப்பிட்டார்.
பிளான் இன்டர்நேஷனலின் செய்தித் தொடர்பாளர், தன்னார்வ தொண்டு நிறுவனம் இப்போது "தனிப்பட்ட குழந்தைகளை சித்தரிக்க AI ஐப் பயன்படுத்துவதற்கு எதிராக அறிவுறுத்தும் வழிகாட்டுதலை ஏற்றுக்கொண்டது" என்பதை உறுதிப்படுத்தினார், மேலும் 2023 பிரச்சாரம் "உண்மையான பெண்களின் தனியுரிமை மற்றும் கண்ணியத்தை" பாதுகாக்க AI ஐப் பயன்படுத்தியது என்றார்.








