"அது கருத்துச் சுதந்திரத்தில் ஒரு குளிர்ச்சியான விளைவை உருவாக்குகிறது."
எலோன் மஸ்க்கின் க்ரோக் இந்தியாவில் சர்ச்சையை ஏற்படுத்தி வருகிறது, பயனர்கள் "இந்தியாவில் க்ரோக் தடை செய்யப்படுவதற்கு எவ்வளவு காலம் முன்பு?" என்று திரும்பத் திரும்பக் கேட்கிறார்கள்.
பிப்ரவரி 2025 இல், எலோன் மஸ்க்கின் xAI அதன் Grok 3 AI சாட்போட்டைப் பயன்படுத்த இலவசம் என்று அறிவித்தது. அதன் வெளியீடு குழப்பமானதாக உள்ளது, இது கோடீஸ்வரருக்குச் சொந்தமான சமூக ஊடக தளத்தின் கணிக்க முடியாத தன்மையை பிரதிபலிக்கிறது.
க்ரோக்கின் பதில்களில் அவதூறு, இந்தி ஸ்லாங் மற்றும் பெண் வெறுப்பு அவதூறுகள் ஆகியவை அடங்கும்.
பிரதமர் நரேந்திர மோடி, காங்கிரஸ் தலைவர் ராகுல் காந்தி மற்றும் பிற பிரமுகர்கள் குறித்த அரசியல் கேள்விகள் சர்ச்சையைத் தூண்டியுள்ளன.
உண்மை கண்டறியும் பணிகளுக்கு சாட்போட்களைப் பயன்படுத்துவதற்கு எதிராக AI நிபுணர்களின் எச்சரிக்கைகள் இருந்தபோதிலும், பல பயனர்கள் க்ரோக்கின் சார்புகளை சோதித்துள்ளனர்.
மத்திய தகவல் மற்றும் தொழில்நுட்ப அமைச்சகம் கவனத்தில் கொண்டுள்ளது. அதிகாரிகள் கூறியதாவது:
"நாங்கள் தொடர்பில் இருக்கிறோம், இது ஏன் நடக்கிறது, என்ன பிரச்சினைகள் உள்ளன என்பதைக் கண்டறிய நாங்கள் அவர்களிடம் (X) பேசி வருகிறோம். அவர்கள் எங்களுடன் ஈடுபடுகிறார்கள்."
சில நிபுணர்கள் அதிகப்படியான கட்டுப்பாடுகளுக்கு எதிராக எச்சரிக்கின்றனர்.
இணையம் மற்றும் சமூக மையத்தின் (CIS) இணை நிறுவனர் பிரனேஷ் பிரகாஷ் கூறியதாவது:
“அனைத்து இந்தியர்களும், அல்லது உண்மையில் அனைத்து இயந்திரங்களும் பாராளுமன்ற மொழியைப் பயன்படுத்துவதை உறுதி செய்வதற்காக ஐடி அமைச்சகம் இல்லை.
"அரசாங்கங்கள் அதை எதிர்க்கின்றன என்பதற்காக நிறுவனங்கள் சட்டப் பேச்சை சுய தணிக்கை செய்யத் தொடங்கினால் இது கவலைப்படுவதற்கு ஒரு காரணமாகும்."
"அது கருத்துச் சுதந்திரத்தில் ஒரு குளிர்ச்சியான விளைவை உருவாக்குகிறது."
க்ரோக்கின் வழக்கு, AI-யால் உருவாக்கப்பட்ட தவறான தகவல், உள்ளடக்கக் கட்டுப்பாடு மற்றும் சட்டப் பொறுப்புக்கூறல் பற்றிய கவலைகளை எடுத்துக்காட்டுகிறது.
இந்த சர்ச்சை, 2024 ஆம் ஆண்டு முதல் இந்திய அரசாங்கம் தற்போது திரும்பப் பெற்ற AI ஆலோசனையின் மீதான பொதுமக்களின் விமர்சனத்தையும் நினைவுபடுத்துகிறது.
ChatGPT மற்றும் கூகிளின் ஜெமினிக்கு மாற்றாக க்ரோக்கை 'எதிர்ப்பு விழிப்பு' கொண்டவராக மஸ்க் ஊக்குவிக்கிறார். தற்போதுள்ள AI மாதிரிகள் இடதுசாரி சார்புகளைக் கொண்டுள்ளன என்று பழமைவாத வர்ணனையாளர் டக்கர் கார்ல்சனிடம் அவர் கூறினார்.
"அரசியல் ரீதியாக சரியாக இருக்க பயிற்சி அளிக்கப்படுவதைப் பற்றி நான் கவலைப்படுகிறேன்" என்று மஸ்க் கூறினார்.
Grok, நிகழ்நேர பதில்களை உருவாக்க, X இல் பொது இடுகைகளைத் தேடலாம். பயனர்கள் பதில்களைப் பெற இடுகைகளில் Grok ஐ டேக் செய்யலாம். சாட்போட்டின் வலைத்தளத்தின்படி, பிரீமியம் "அன்ஹிங்ட்" பயன்முறை ஆத்திரமூட்டும் மற்றும் கணிக்க முடியாத பதில்களை உறுதியளிக்கிறது.
பொதுக் கொள்கை நிறுவனமான தி குவாண்டம் ஹப்பின் நிறுவன பங்குதாரரான ரோஹித் குமார், இதை ஆபத்தானதாகக் கருதுகிறார்:
"க்ரோக் வழக்கில் மிகப்பெரிய பிரச்சினை அதன் வெளியீடு அல்ல, ஆனால் X உடனான அதன் ஒருங்கிணைப்பு ஆகும், இது உள்ளடக்கம் கட்டுப்படுத்தப்படாமல் பரவக்கூடிய ஒரு சமூக ஊடக தளத்தில் நேரடியாக வெளியிட அனுமதிக்கிறது, இது கலவரம் போன்ற நிஜ உலக தீங்குக்கு வழிவகுக்கும்."
AI-உருவாக்கிய பேச்சுக்கான சட்ட கட்டமைப்பு தெளிவாக இல்லை.
"முதலில், அரசியலமைப்பின் கீழ் பேச்சுரிமைக்கு அனுமதிக்கப்பட்ட கட்டுப்பாடுகளுக்குள் வருகிறதா என்பதை நாம் கருத்தில் கொள்ள வேண்டும், பின்னர் வெவ்வேறு சட்டங்களின் கீழ் அது எங்கு, எப்படி எல்லை மீறுகிறது என்பதை பிரிக்க வேண்டும்" என்று எஸ்யா மையத்தின் இயக்குனர் மேக்னா பால் கூறினார்.
க்ரோக் குற்றவியல் பொறுப்பை எதிர்கொள்ள முடியுமா என்பது குறித்து, கனடாவில் ஒரு விமான நிறுவனம் அதன் AI சாட்போட் வழங்கிய தவறான தகவல்களுக்கு பொறுப்பேற்ற வழக்கு போன்ற முன்னுதாரணங்களை பால் சுட்டிக்காட்டினார்.
நீதிமன்றங்கள் AI-ஐ ஒரு வெளியீட்டாளராகக் கருதி, விமான நிறுவனத்தின் பொறுப்பற்ற தன்மை கூற்றை நிராகரித்தன.
பயனர் உள்ளடக்கத்திற்கான பொறுப்பிலிருந்து ஆன்லைன் தளங்களைப் பாதுகாக்கும் விதிகளைப் போலவே, AI டெவலப்பர்களுக்கான பாதுகாப்பான துறைமுகப் பாதுகாப்புகளை உருவாக்க பால் முன்மொழிந்தார்.
அவர் கூறினார்: "AI நிறுவனங்களுக்கான பாதுகாப்பான துறைமுக கட்டமைப்பானது, இறுதி-பயனர் உரிம ஒப்பந்தங்கள் மற்றும் பயனர் நடத்தை நெறிமுறைகள் மற்றும் சில நிறுவனங்கள் தங்கள் பெரிய மொழி மாதிரிகளுக்காக உருவாக்கிய உள்ளடக்கக் கொள்கைகளிலிருந்து கடன் வாங்கலாம்."
AI அமைப்புகளில் பாதுகாப்புத் தண்டவாளங்களைத் தவிர்ப்பதற்குப் பயன்படுத்தப்படும் நுட்பங்களான AI ஜெயில்பிரேக்குகளைத் தடுப்பது கடினம் என்று மைக்ரோசாப்ட் எச்சரித்துள்ளது.
கிரிக்கெட் முதல் அரசியல் வரையிலான தலைப்புகளில் க்ரோக் பயனர்கள் சாட்போட்டை சோதித்துப் பார்த்துள்ளனர், வேண்டுமென்றே எல்லைகளைத் தள்ளிவிட்டனர்.
பால் கூறினார்: "அத்தகைய தாக்குதல்களிலிருந்து பாதுகாப்பதை விட (உடனடி பொறியியல் மூலம்) ஒரு உருவாக்கும் AI சேவையைத் தாக்குவது மிகவும் எளிதானது என்பதை இலக்கியம் சுட்டிக்காட்டுகிறது."
AI சாட்போட் வெளியீடுகளை நேரடியாக கண்காணிப்பது தவறான அணுகுமுறை என்று குமார் நம்புகிறார்:
"அதற்கு பதிலாக, டெவலப்பர்கள் அபாயங்களை மதிப்பிட வேண்டும், பன்முகத்தன்மையை உறுதி செய்வதற்காக பயிற்சிக்கு பயன்படுத்தப்படும் தரவுத்தொகுப்புகளைப் பற்றி மிகவும் வெளிப்படையாக இருக்க வேண்டும், மேலும் சாத்தியமான தீங்குகளைத் தணிக்க முழுமையான ரெட்-டீமிங் மற்றும் மன அழுத்த சோதனையை நடத்த வேண்டும்."
இப்போதைக்கு, க்ரோக் இந்தியாவில் செயல்பட்டு வருகிறது. ஆனால் ஆய்வு தீவிரமடைவதால், அதன் எதிர்காலம் குறித்த கேள்விகள் நீடிக்கின்றன.