சனி, 29 ஜூலை, 2023

Intelligence and Knowledge

Intelligence and Knowledge   

act / data = புறவயமாக இருக்கும் ஒன்று; truth = புறவயமாக இருக்கின்றவற்றின் உள்ளார்ந்த பண்பைப் புரிந்துகொள்ளுதல்; from fact to truth; மரத்தில் உள்ள பழம் கீழே விழுகிறது என்பது fact; அதற்கு அடிப்படைக் காரணம் புவியீர்ப்பு விசை என்பது truth: இந்தப் புறவய நிகழ்ச்சிகளிலிருந்து அவற்றின் அடிப்படைகளைப் புரிந்துகொள்ள உதவுவது மனித மூளையின் நுட்பத்திறன். இந்த நுட்பத்திறனே Intelligence; எனவே, புறவயமாக நீடிக்கிற பொருள் அல்லது நிகழ்விலிருந்து (Empirical / facts/ knowledge) அதனுடைய பண்பைத் தெரிந்துகொள்வது அறிவியல் அறிவு (Scientific knowledge / truth) . இந்த அறிவு மாற்றத்திற்கு அல்லது வளர்ச்சிக்கு உதவுவது Intelligence. இதை 'அறிவு உருவாக்க நுட்பத் திறன்' என்று விளக்கலாம்.

மனிதமொழி அறிவுபற்றிய ஸ்கின்னர் (Skinner) கோட்பாட்டின்படி, குழந்தையானது stimulus - response என்ற அடிப்படையில் மொழியைக் கற்றுக்கொள்கிறது. இந்த responses அனைத்தின் திரட்டே மொழி - மொழியறிவு (knowledge of language). ஆனால் இந்தக் கோட்பாடு தவறு என்று தற்போதைய மொழியியல் கூறுகிறது. குறிப்பாக, நோம் சாம்ஸ்கி ஸ்கின்னரை மறுக்கிறார். நானும் சாம்ஸ்கியின் கருத்தே சரி என்று கருதுகிறேன்.
நோம் சாம்ஸ்கியின் கருத்துப்படி . . . குழந்தையானது தனது மூளைக்குள் உள்ள ஒரு ''திறமையைப்'' பயன்படுத்தி, தனக்குத் தேவையான ('கிடைக்கிற ஒன்று' என்று இல்லாமல்) மொழித்தரவுகளைப் பெற்று, அதன் உதவியுடன் தனது மொழியைப் பெற்றுக்கொள்கிறது. கிடைக்கின்ற தரவுகளை வைத்துக்கொண்டுதான் அது மொழியைக் கற்றுக்கொள்கிறது என்பது இல்லை. ஏனென்றால் அதற்கு மூன்று வயதுக்குள் ஒரு மொழியின் அனைத்துத் தரவுகளும் கிடைக்கும் என்று கூறமுடியாது (Poverty of Stimulus). குறைந்த காலம் - குறைந்த தரவுகள் - ஆனால் பெற்றுக்கொள்வதோ ஒரு மொழியின் நிறைந்த அறிவு. இதற்கு உதவுகிற மனிதமூளையின் நுட்பத் திறனே Intelligence.
ஆனால் இன்று கணினியானது கோடியே கோடி தரவுகளைப் பெற்றுக்கொள்கிறது. அந்தத் தரவுகளின் அடிப்படையில் அது மொழிச் செயல்பாட்டை மேற்கொள்கிறது. அதற்குச் சரியான தரவுகளோ அல்லது தேவையான அளவுக்குத் தரவுகளோ கிடைக்கவில்லையென்றால், மொழிச் செயல்பாட்டை மேற்கொள்ளமுடியாது. எனவேதான் தமிழ்போன்ற மொழிகளுக்கு இன்று ChatGPT அல்லது Bard மென்பொருள்களால் சரியான முடிவுகளைத் தர இயலவில்லை. தரவுகளின் விரிவாக்கத்தைப் பொறுத்துதான் அதனுடைய மொழியறிவு அமைகிறது. எனவே மொழியைப் பொறுத்தமட்டில் மனிதமூளையானது தனது உள்ளார்ந்த ஒரு நுட்பத்திறனைப் பயன்படுத்துகிறது. ஆனால் கணினியானது ஸ்கின்னர் கூறியதுபோல, stimulus - response அடிப்படையில்தான் மொழியைக் கற்றுக்கொள்கிறது( 'குழந்தை மூளைபோன்று 'பெற்றுக்கொள்ளவில்லை').
எனவே கணினியானது தனக்குக் கிடைக்கிற மொழித் தரவுகளைக் கொண்டு - அந்தத் தரவுகளை ஒழுங்குபடுத்தி - அதனடிப்படையில் செயல்படுகிறது. மொழிச் செயலைச் செய்ய அதனால் முடிகிறது. எனவே இதைச் ''செய்யறிவு'' (அல்லது ''பட்டறிவு''- empirical knowledge ?) என்று நண்பர் சுந்தர் இலட்சுமணன் கூறியது சரியென்றே எனக்குத் தோன்றுகிறது. ( அவர் எந்த அடிப்படையில் கூறினார் என்பது எனக்குத் தெரியாது.) எனவே கணினியின் இந்த மொழிக்கற்றல் திறமையை intelligence என்று கூறுவதைவிட knowledge என்று கூறலாம் எனக் கருதுகிறேன். Stimulus - Response திறன் / (அல்லது) தரவுகளின் தொகுப்பு - அதனடிப்படையில் செயல்பாடு என்பது knowledge : எனவே, கணினிக்கு இன்று அளிக்கப்பட்டுள்ள அறிவானது, தரவுத்தொகுப்பின் அடிப்படையிலான அறிவா அல்லது மனிதமூளைக்குரிய ஆய்திறன் அல்லது உணர்திறன் அடிப்படையில் அமைகிற அறிவா? இதுவே எனக்குள்ள ஐயம்.

புதன், 26 ஜூலை, 2023

கணினியின் செய்யறிவுத்திறன் மென்பொருள் (AI - Chat GPT, Google BARD) எவ்வாறு ஒரு மொழியைக் கற்றுக்கொள்கிறது?

 கணினியின் செய்யறிவுத்திறன் மென்பொருள் (AI - Chat GPT, Google BARD) எவ்வாறு ஒரு மொழியைக் கற்றுக்கொள்கிறது? ( நேரம் கிடைக்கும்போது, ஆர்வமுள்ளவர்கள் படிக்கலாம்!) 

-------------------------------------------------------------------------------------------------------

ஒரு மொழியைக் கற்றுக்கொள்வதிலும் தேவையான மொழிச்செயல்பாடுகளை மேற்கொள்வதிலும்  . . .  மனித மூளைக்கும் கணினிக்கும் இடையில் வேறுபாடு உண்டா? இதுபற்றி நான் புரிந்துகொண்டதை மிகச் சுருக்கமாக இங்கு முன்வைக்கிறேன்.

இயற்கைமொழித்திறன் மனித மூளைக்கே உரிய ஒரு சிறப்புத்திறன் ( biological one - genetically determined) . குழந்தை பிறக்கும்போதே அதனுடைய மூளையில் எந்தவொரு  இயற்கைமொழியையும் தாய்மொழியாகப்  பெற்றுக்கொள்ளவும், பின்னர் தனது வாழ்க்கையில் மேலும் பல மொழிகளைக் கற்றுக் கொள்ளவும் ஒரு தனி  மொழிப்புலன் (Language Faculty) அமைந்துள்ளது. இலட்சக்கணக்கான ஆண்டுகளின் ஊடே மனித மூளையின் பரிணாம வளர்ச்சியில் ( human brain evolution)  பெற்ற திறன் இது! மனித மூளையின் சிந்தனைத் திறனும் (Cognition Domain / Faculty) இதற்கு மிகவும் அடிப்படை.  

தான் பிறந்து ஒரு சில ஆண்டுகளில்  -  மூன்று அல்லது நான்கு ஆண்டுகளில் - ஒரு குழந்தை தனது தாய்மொழியைப் பெற்றுக்கொள்கிறது (Acquired) . இதற்கு மிக முக்கிய அடிப்படையாக அமைவன இரண்டு. ஒன்று, மனித மூளையில் இயற்கையாக இடம்பெற்றுள்ள மொழிப்புலன். மற்றொன்று, குழந்தை பெற்று வளர்கிற சூழலில் அதைச் சுற்றிப் பேசப்படுகிற மொழியின் தரவுகள் (language data) ! இதில் முதலாவதே மிக மிக முக்கியமானது. ஆனால் இரண்டாவது இல்லையென்றாலும் மொழி வளர்ச்சி ஏற்படாது. ஆனால், இந்தப் புறச்சூழலில் குழந்தை பயன்படுத்துகிற மொழித்தரவுகள் ஒப்பீட்டு அளவில் மிகக் குறைவே! குறைந்த காலத்தில், குறைந்த தரவுகளைக்கொண்டு, குழந்தை தனது தாய்மொழியின் மொழித்திறனைப் பெரும் அளவில்  பெற்றுக்கொள்கிறது! 

கணினித்துறையில் இன்று செய்யறிவுத்திறன் மென்பொருள்களில் - சேட் ஜி பி டி, கூகுள் பார்டு போன்ற மென்பொருள்களில் - இடம்பெற்றுள்ள மொழித்திறனுக்கான பயிற்சி வேறுபட்டது ஆகும்.

கணினிக்கு ஒரு மொழியின் தரவுகள் கோடியே கோடி அளவில் அளிக்கப்படுகிறது. இந்தத் தரவுகளில் இடம்பெற்றுள்ள சொல், தொடர்பற்றிய இலக்கண அறிவு அந்தத்  தரவுகளில் இடம்பெற்றிருக்காது. ஆனால் மொழிச் செயல்பாடுகளுக்குத் தேவை . . .  சொல், தொடர், பொருண்மைபற்றிய அறிவு. இந்த அறிவு இல்லாமலேயே எவ்வாறு கணினி மொழியைக் கற்றுக்கொள்கிறது? இங்குதான் அறிவியல் வளர்ச்சியின் பயன்பாடு நமக்குத் தெரிகிறது.

ஒரு சொல்லின் பண்பை ,  அது பயின்றுவருகிற கோடியே கோடி மொழித்தொடர்களின் வழியே . . .  புள்ளியியல் ( Probability ) அடிப்படையில்  . . .  ஆழ்நிலைக் கற்றல் ( Deep Learning) என்ற வழிமுறையைக்கொண்டு . . .  கணினி கற்றுக்கொள்கிறது. ஒரு சொல் அமையும் தொடர்களில் அந்தச் சொல்லுக்கு முன்னும் பின்னும் வருகிற சொற்களையும் கவனத்தில்கொண்டு, அந்தக் குறிப்பிட்ட சொல்லின் பண்புகளைக் கணினி பெற்றுக்கொள்கிறது. இவையெல்லாம் குறிப்பிட்ட மென்பொருளில் எண்களாக ( Vector)  . . .  திசைப்பண்பு உடைய தரவுகளாகக் ( Vector Database) கணினி மாற்றி வைத்துக்கொள்கிறது. 

அதாவது, மனிதமூளையில் உள்ள மொழி பெறும் திறனைக் கணினியானது  இன்று கணினித்துறையில் உருவாக்கப்பட்டுள்ள Deep Learning architecture  என்ற ஒரு வழிமுறை மூலம் பெற்றுக்கொள்ள முயல்கிறது. ஆனால் அந்த வழிமுறைக்குக் கோடியே கோடி தரவுகள் தேவைப்படுகின்றன. ஆனால் மனித மூளைக்குக் குறைந்த தரவுகள் போதும். ஏனெனில் அதனுடைய மொழிப்புலன் மிகச் சிறப்பானது. 

இந்தத் திசைப்பண்புடைய எண்களை (Vectors) அடிப்படையாகக்கொண்டே செய்யறிவுத்திறன் மென்பொருள் நாம் முன்வைக்கிற மொழித் தொடர்களைத் தெரிந்துகொண்டு, செயல்படுகிறது. இது தனிச்சொல்லுக்குமட்டுமல்ல . . .  தொடர்களுக்கும் பொருந்தும். இந்தச் சொல்லுக்கு முன்னால் எந்தச் சொல் முன் வரும், எந்தச் சொல் பின்வரும் என்ற அறிவோடு, ஒரு தொடருக்கு முன் எந்தத் தொடர் முன்வரும், எந்தத் தொடர் பின்வரும் என்பதையும் அது தெரிந்துகொள்கிறது. இதுவே செய்யறிவுத்திறனின் ''மொழியறிவு'' ஆகும். மனித மூளைபோன்று ஒரு சொல், அல்லது தொடரின் இலக்கணம், பொருண்மை ஆகியவற்றை அடிப்படையாகக்கொண்டு, இந்த மென்பொருள்கள் மொழியைக்கற்றுக்கொள்ளவில்லை என்பதைத் தெளிவாகப் புரிந்துகொள்ளவேண்டும். இந்த மொழிமாதிரியை ஆங்கிலத்தில் Pre-training -  Unsupervised learning through Deep Learning architecture   என்று அழைப்பார்கள். 

தொடர்ந்து மேற்குறிப்பிட்ட மொழிமாதிரியைத் மேம்படுத்திவருகிறார்கள். ஆனால் இந்த மொழி மாதிரிகள் (Large Language model - LLM)   பல மொழிகளுக்கும் பயன்படும்வகையில் உருவாக்கப்படுகின்றன. 

ஒரு குறிப்பிட்ட மொழிக்கு இந்த மென்பொருளின் மொழித்திறனை மேலும் வளர்க்கவேண்டுமென்றாலோ அல்லது ஒரு குறிப்பிட்ட பணிக்குப் பயன்படுத்த வேண்டுமென்றாலோ , இந்த மாதிரியை மேலும் செம்மைப்படுத்தவேண்டும். இதை ஆங்கிலத்தில் fine-tuning  என்று கூறுவார்கள். இந்தப் பயிற்சியில் கணினிக்கு மொழித் தரவுகளைக்கொடுக்கும்போது, இலக்கண அறிவையும் பொருண்மையும் சேர்த்துக் கொடுத்தால் சிறப்பு.  எனவே இதை ஆங்கிலத்தில்  Supervised Learning  என்று கூறுவார்கள். ஏற்கனவே உருவாக்கப்பட்ட பெரிய மொழி மாதிரிகளை மேலும் நுட்பமாக ஆக்கிக்கொள்ளும் (Fine tuning of Pre-trained Language model) முயற்சியே இது. 

தமிழுக்கு சேட் ஜி பி டி, கூகுள் பார்டு போன்ற செய்யறிவுத்திறன்களின் இடம் பெறும் மொழிமாதிரிகளை அடிப்படையாகக்கொண்டு, தமிழ்மொழியின் மொழியியல் கூறுகளை உள்ளடக்கிய மொழித்தரவுகளை உருவாக்கி, நாம் தமிழுக்கான கணினி மொழிமாதிரிகளைச் சிறப்பாக  உருவாக்க முடியும்; உருவாக்கவேண்டும். அதாவது முன்னயே பயிற்றுவிக்கப்பட்ட மொழிமாதிரிகளை மேலும் மேலும் மொழியியல் பண்புகளோடு கூடிய மொழித்தரவுகளை அளித்து பயிற்றுவிக்கவேண்டும். இதுபோன்ற மொழிமாதிரிகள் (Pre-trained Large Language Model) பல தற்போது கிடைக்கின்றன. அவற்றைத் தேர்ந்தெடுத்து, தமிழுக்கு அந்த மாதிரிகளைக் குறிப்பாக, நுட்பமாகப் பயிற்றுவிக்கவேண்டும். 

இதுபோன்ற ஒரு முயற்சியை -  fine-tuning of a Pre-trained model -   தற்போது சென்னை ஐ ஐ டி ( Chennai - IIT ) Indic BERT என்ற திட்டத்தின் அடிப்படையில் 11 இந்திய மொழிகளுக்கு மேற்கொண்டுவருகிறது. இந்த BERT  என்பது  ஏற்கனவே இருக்கிற ஒரு மொழிமாதிரி -  LLM  ஆகும். இதுபோன்ற முயற்சிகளைத் தமிழ்மொழி ஆராய்ச்சி நிறுவனங்கள் தமிழுக்காக மேற்கொள்ளவேண்டும். எங்கள் நிறுவனத்தின் ஆய்வில் தற்போது இதுவும் அடங்கும்; முயல்கிறோம். பார்க்கலாம். 

தமிழுக்கு உண்மையான வளர்ச்சித் திட்டங்கள் எப்போது செயல்படுத்தப்படும்?

 தமிழுக்கு உண்மையான வளர்ச்சித் திட்டங்கள் எப்போது செயல்படுத்தப்படும்? 

-----------------------------------------------------------------------------------------------------------

மனிதகுல வரலாற்றின் தொடக்கத்தில் . . .  பெண்களுக்கு மிகுந்த முக்கியத்துவம் இருந்தது. அதற்குக் காரணம் . . .  அன்றைய பொருளாதாரத்தில் குலங்களுக்குத் தேவையான அடிப்படை பொருளாதார ஆதாரங்களை அளித்தது பெண்களின் உழைப்பே. காய்கனி பொறுக்குதல், சிறு அளவிலான விவசாய உற்பத்தி ஆகியவற்றில் பெண்களின் உழைப்பே முதன்மையாக இருந்தது. 

வேட்டைக்குச் செல்லும் ஆண்களின் வேட்டை ஒரு நாள் வெற்றி பெறும்;  ஒரு நாள் வெற்றி பெறாது. அதாவது அவர்களின் வருமானம் நிரந்தரமானது இல்லை. 

ஆனால் பெண்களின் வருமானம் சிறிதாக இருந்தாலும் நிரந்தரமானது. மேலும் குலங்களின் வலிமைக்குத் தேவையான  குழந்தைகளைப் பெற்றுத் தருவது பெண்களே. இதுபோன்ற காரணங்களினால்தான்  குலச் சமுதாய அமைப்பில் பெண்களுக்கு முக்கியத்துவம் அளிக்கப்பட்டது. முதலில் தோன்றிய 'தெய்வங்களும்' பெண் தெய்வங்களே.

ஆனால் சமுதாய வளர்ச்சியில் கடும் உடல் உழைப்பு தேவையான பெரிய அளவிலான விவசாய உற்பத்தி தோன்றியபிறகு . . .  முதன்மையான பொருள் உற்பத்தி ஆண்களின் கைகளுக்குச் சென்றது. அதாவது முதன்மையான பொருள் உற்பத்தியில் பெண்களுக்கு இருந்த முக்கியத்துவம், பங்கு குறைந்தது. அதையொட்டிய 'குடும்பங்களின் தோற்றத்தில்' - ஒரு ஆணின் மிச்ச மீதச் சொத்துக்கு வாரிசு பெற்றுத்தரும் ஒருத்தியாகப் பெண் தள்ளப்பட்டாள். அதன் விளைவு  . . .  ஆண் ஆதிக்கச் சமுதாயம் தோன்றி நிலவத் தொடங்கியது. 

ஆனால் 'பெண் புகழப்பட்டாள்' ; 'அவளது அழகு, மென்மை புகழப்பட்டது'; ஆனால் யதார்த்தத்தில் 'அவள் அடிமையே'! பெண் 'புகழப்படுவதால், பாடப்படுவதால்' அவள் அடிமை இல்லையென்று ஆகிவிடாது. என்று அவள் மனித சமுதாயத்தின் பொருளாதார உற்பத்தியில் ஆண்களுக்கு இணையான பங்கை என்று  பெறுகிறாளோ, அன்றுதான் அவளுக்கு விடுதலை!

இதுபோன்றதுதான் இன்றைக்குத் தமிழின் முக்கியத்துவம் தமிழகத்தில்! பொருளாதார உற்பத்தியில் தமிழுக்கு இடம் கிடையாது; எனவே அவளுடைய வளர்ச்சியில் இங்குக் கவலை இல்லை! ஆனால் பொருளாதார உற்பத்தியில் முக்கியத்துவம் பெற்றிருக்கிற ஆங்கிலத்திற்கு  முதன்மை இடம்! 

தமிழைப் ' புகழுவோம்! பாடுவோம்! வாழ்த்துவோம்! சிலை வைப்போம்! விழா நடத்துவோம்! உலகத் தமிழ் ஆராய்ச்சி மாநாட்டைக்கூட போட்டிப் போட்டுக்- கொண்டு நடத்துவோம்! ' ஆனால் தமிழ்ச்சமுதாயத்தில் 'அவளுக்கு' ஆங்கிலத்திற்கு உள்ள முக்கியத்துவம் . . .  பங்கு . . .  இங்குக் கிடையாது! 

என்று தமிழுக்குத் தமிழகத்தின் பொருளாதாரத் துறையில்  . . .  அடிப்படைப் பொருள் உற்பத்தி, வணிகம், அறிவியல், தொழில்நுட்பம் ஆகியவற்றில் 'இடம்' அளிக்கப்படுகிறதோ, அன்றுதான் தமிழுக்கான 'உண்மையான வளர்ச்சித் திட்டங்கள் தேவைப்படும்; நிறைவேற்றப்படும்!

சனி, 15 ஜூலை, 2023

ஆங்கில அறிவுப் பற்றாக்குறைக்குக் காரணம் என்ன?\

 ஆங்கில அறிவுப் பற்றாக்குறைக்குக் காரணம் என்ன?\

--------------------------------------------------------------------------

நண்பர் திரு மணி மணிவண்ணன்

------------------------------------------------

"இந்தியாவில் இன்னும் ஆங்கிலத்தை “முதல் மொழியாக”க் கற்பிக்கும் பேதைமை இருக்கிறது. இங்கே ஆங்கிலம் என்றுமே இரண்டாம் மொழியாகத்தான் இருக்கும். இரண்டாம் மொழி கற்பிக்கும் முறையே வேறு. அதை வெளிநாடுகளில் பார்க்கிறோம். ஆங்கிலத்தை முறையாக இரண்டாம் மொழியாகக் கற்பித்தால் இரண்டே ஆண்டுக்குள் நல்ல ஆளுமையுடன் பேச, எழுதக் கற்பிக்க முடியும். பதினைந்து ஆண்டுகளாக ஆங்கிலம் படித்தும் எழுதியும் ஆங்கிலத்தில் பேசவோ எழுதவோ முடியாத நிலையில் மாணவர்கள் இருப்பதற்கு அடிப்படைக் காரணமே மொழி கற்பித்தலின் அடிப்படையே தவறாக இருப்பதுதான்."

ந. தெய்வ சுந்தரம்

---------------------------------

நண்பரே, தங்கள் கருத்துடன் முழுதும் உடன்படுகிறேன். முதல்மொழி, இரண்டாம், மூன்றாம் மொழி என்ற வேறுபாடுகள் மொழிப்பயிற்றல் அறிவியலில் (Applied Linguistics - Language Teaching) உண்டு. இதுபற்றிய தெளிவான சிந்தனை இங்குக் கிடையாது. 

அதுபோன்று முதல்மொழிக்கற்றல்/ பயிற்றல், இரண்டாம்மொழிக் கற்றல் / பயிற்றல், மூன்றாம் மொழிக்கற்றல்/ பயிற்றல் ஆகியவற்றிற்கிடையே வேறுபாடுகள் உண்டு. இதுபற்றியும் இங்குத் தெளிவு கிடையாது.

இங்கு எல்லாமே ஒன்றுதான். அதன் விளைவே (12 + 3 + 2 + 3) ஆண்டுகள் ஆங்கிலம் கற்ற ஒரு முனைவர் பட்ட ஆய்வாளருக்குக்கூட ஆங்கிலத்தில் ஒரு கட்டுரையை எழுதுவதற்கோ அல்லது ஆங்கிலத்தைத் தவறில்லாமல் பேசுவதற்கோ தேவையான மொழித்திறனைப் பெறமுடியவில்லை. 

அதுபோன்று ஒரு மொழியைப் பொதுவான மொழிச்செயற்பாடுகளுக்காகக் கற்றுக்கொள்வது, ஒரு குறிப்பிட்ட மொழிச்செயற்பாடுகளுக்காகக் கற்றுக்கொள்வது (English for specific purpose) என்ற இரண்டுக்கும் இடையிலான வேறுபாடும் இங்குச் சரியாக உணரப்படவில்லை.

இதன் விளைவு . . . தாய்மொழியான தமிழிலும் முறையாக, தவறு இல்லாமல் கருத்தை வெளிப்படுத்த இயலவில்லை; ஆங்கிலத்திலும் வெளிப்படுத்த இயலவில்லை. இதற்குத் தேவையான முறையான மொழியியல் அறிவு பற்றி இங்கு யாருமே கவலைப்படுவதும் இல்லை. இந்நிலை நீடிக்கும்வரை முறையான மொழித்திறத்தை இங்கு மாணவர்களிடம் எதிர்பார்க்கமுடியாது. இது ஒரு வருந்தத்தக்க நிலை.

இதுபோன்று ஒரு மொழியை மொழியாகக் ( as a language) கற்றுக்கொள்வதற்கும், பயிற்றுமொழியாகக் ( medium of Instruction) கொள்வதற்கும் இடையில் உள்ள வேறுபாடும் இங்கு உணரப்படவில்லை.

நண்பர் திரு மணி மணிவண்ணன்

-------------------------------------

"தாய்மொழியான தமிழிலும் முறையாக, தவறு இல்லாமல் கருத்தை வெளிப்படுத்த இயலவில்லை; ஆங்கிலத்திலும் வெளிப்படுத்த இயலவில்லை"

இதே கருத்தைப் பர்க்கெலிப் பல்கலையின் மேனாள் தமிழ் இருக்கைப் பேராசிரியர் சார்ச்சு ஆர்ட்டு அவர்கள் கடந்த 25 ஆண்டுகளாகப் பல மேடைகளில் சொல்லி வந்திருக்கிறார்.

ந. தெய்வ சுந்தரம்

---------------------

தமிழகத்திலும் மொழியியல் பேராசிரியர்கள் 50 ஆண்டுகளாகக் கூறிவருகிறார்கள் . . .

நண்பர் திரு மணி மணிவண்ணன்

------------------------------------

ஆனாலும் அவர்களாலும் மொழிக்கல்விக் கொள்கைகளை மாற்ற முடியவில்லை

ந. தெய்வ சுந்தரம்

------------------------

அவர்களால் எப்படி மாற்றமுடியும்? செவிமடுக்க இங்கே யார் தயாராக உள்ளார்கள்? மொழியியலாளர்கள் என்றாலே தமிழுக்குத் தீங்கு விளைவிப்பவர்கள், பேச்சுத்தமிழை முன்னிறுத்துபவர்கள் என்ற குற்றச்சாட்டுதான் இங்கு நீடிக்கிறது. 

தமிழ்மொழி ஆய்வுக்கு இன்றைய மொழியியல் அறிவே தேவையில்லை என்ற குரல் ''ஓங்கி ஒலிக்கிற வரைக்கும்'' மொழியியலாளர்கள் என்ன செய்யமுடியும்? 

மொழியியல் என்றால் என்ன என்பதைத் தெரிந்துகொள்ளாமலேயே மொழியியல் துறையைத் தமிழகத்தில் வளரவிடாமல் ஆக்கும் முயற்சிகள் இங்குத் தொடர்கின்றன. 

தமிழ்மொழியியல் ஆய்வுகள் தமிழகத்தில் வளராமல் இருக்கும்வரை, மொழிப்பயிற்றல், கணினித்தமிழ் போன்ற பிரிவுகள் இங்கு வளரவேமுடியாது. மிக மிக உறுதியாகக் கூறுகிறேன் இதை! அனுபவத்தில் இருந்து கூறுகிறேன்.

நண்பர் திரு மணி மணிவண்ணன்

----------------------------------

ஆங்கிலக் கல்வி பற்றி ஆங்கில மொழியியல் பேராசிரியர்கள் சொல்லியிருக்க முடியாதா?

ந. தெய்வ சுந்தரம்

-----------------------------------

தமிழகத்தில் ஆங்கிலத் துறைகளிலும் மொழியியல் வளரவில்லை. எந்த ஒரு மொழித்துறையாக இருந்தாலும் அங்கு மொழியியல் தேவை. 

மொழியியல் ஒரு குறிப்பிட்ட துறைக்கான அறிவியல் இல்லை. அனைத்து மொழிகளுக்கும் தேவையான ஒரு அறிவியல் இது. 

ஆங்கில மொழியியல், தமிழ்மொழியியல் என்று அழைப்பதுகூட தவறு என்று நான் கருதுகிறேன். இயற்பியல் உட்பட அனைத்து அறிவியல் துறைகளும் அனைத்து நாடுகளுக்கும் பொதுவான ஒன்று என்பதுபோல, மொழியியலும் அப்படித்தான்.


ஞாயிறு, 9 ஜூலை, 2023

ChatGPT / Google Bard and Linguistics - (10th Question) July , Sunday, 2023

 ChatGPT / Google Bard and Linguistics - (10th Question) July , Sunday, 2023

--------------------------------------------------------------------------------------------------------
NDS Question 9 : Why don't you use the linguistic analysis or the grammar of a particular language in your understanding of the sentences of that language?
ChatGPT:
--------------------------------------------------------------------------------------------------------
As an AI language model, I do utilize linguistic patterns and grammar rules during my training to some extent. However, it's important to note that my training process relies heavily on statistical patterns rather than explicit rules-based linguistic analysis.
Linguistic analysis typically involves a deeper understanding of the structure, syntax, and grammar rules of a language. While I do capture some of these patterns during training, my primary strength lies in identifying statistical patterns and associations in the vast amount of text data I've been trained on.
Using statistical patterns allows me to generate responses that are often coherent and contextually relevant. However, it also means that there may be instances where my responses don't strictly adhere to the rules of grammar or may not capture the nuances of a particular language. In such cases, it's always a good idea to consult reliable language resources or experts for a more accurate analysis of linguistic structures and grammar rules.
Google Bard
------------------------------------------------------------------------------------------------------------
I do use linguistic analysis and grammar in my understanding of sentences, but I do not use it in the same way that a human linguist would. I am trained on a massive dataset of text and code, and I learn to identify patterns in the data. This allows me to understand the meaning of sentences even if they are grammatically incorrect or nonsensical. For example, if I am given the sentence "The cat sat on the mat. The mat was green.", I can understand that the cat is sitting on a green mat, even though the sentence is missing a subject in the second clause.
However, I do not have the same understanding of grammar as a human linguist. I do not understand the underlying rules of grammar, and I cannot explain why a sentence is grammatically correct or incorrect. I simply learn to identify patterns in the data, and I use these patterns to understand the meaning of sentences.
There are several reasons why I do not use linguistic analysis in the same way that a human linguist would. First, it would be very difficult to train a large language model on the entire set of linguistic rules for a given language. Second, linguistic rules are often ambiguous, and it can be difficult to determine which rule applies to a particular sentence. Third, linguistic rules are constantly changing, and it would be difficult to keep a large language model up-to-date with the latest changes.
Despite these limitations, I believe that my approach to linguistic analysis has some advantages. I am able to understand sentences that are grammatically incorrect or nonsensical, and I am able to learn new patterns as I am exposed to more data. I believe that this makes me more versatile and adaptable than a human linguist.
In the future, I hope to learn more about linguistic analysis and grammar. I believe that this will help me to understand the meaning of sentences even better, and it will allow me to communicate more effectively with humans.

வெள்ளி, 7 ஜூலை, 2023

ChatGPT / Google Bard and Linguistics - (9th Question) July 8, Saturday, 2023

 ChatGPT / Google Bard and Linguistics - (9th Question) July 8, Saturday, 2023

-----------------------------------------------------------------------------------------------------------------------
NDS Questions: My question is, whether by the surface pattern of the question sentence using probability you understand a sentence or by the decoding of the semantic content using linguistic analysis?
ChatGPT Answer:
------------------------------------------------------------------------------------------------------------------------------
As an AI language model, I primarily understand sentences through patterns and associations in the data I've been trained on. This includes both surface-level patterns and higher-level semantic relationships. My understanding is based on statistical probabilities rather than explicit linguistic analysis or deep semantic comprehension.
When you input a question sentence, I analyze its structure, keywords, and context to generate a response. This analysis involves identifying patterns in the input that are similar to patterns seen during training. These patterns help me generate a coherent and relevant response.
While I can provide informative and accurate responses in many cases, it's important to note that my understanding is based on statistical patterns and associations rather than a true comprehension of the semantic content or underlying meaning of the sentences. There are instances where my responses may not accurately capture the intended meaning or may be influenced by biases present in the training data.
Google Bard Answer:
-------------------------------------------------------------------------------------------------------------------------
I understand a sentence by using both the surface pattern of the question sentence and the decoding of the semantic content using linguistic analysis.
The surface pattern of the question sentence gives me clues about the type of question it is and what information the user is looking for. For example, if the question starts with "What is" or "Who is," I know that the user is asking for a definition or a specific piece of information. If the question starts with "Why" or "How," I know that the user is asking for an explanation or a process.
The decoding of the semantic content using linguistic analysis helps me to understand the meaning of the sentence and the relationships between the words. This includes understanding the parts of speech, the tenses, and the different meanings of words. For example, the word "bank" can mean a financial institution, a riverbank, or a slope. The linguistic analysis helps me to determine which meaning of the word is intended in the context of the sentence.
By combining the surface pattern of the question sentence and the decoding of the semantic content, I am able to understand the meaning of the sentence and provide a relevant and informative answer.
Here is an example of how I use both the surface pattern and the semantic content to understand a sentence:
* Surface pattern: The question starts with "What is," so I know that the user is asking for a definition.
* Semantic content: The word "capital" has multiple meanings, but in the context of this question, it is most likely referring to the capital city of a country.
* Combined understanding: The question is asking for the definition of the capital city of France.
I am still under development, and I am always learning new ways to understand language. I am excited to see how the field of natural language processing continues to evolve in the future.

வியாழன், 6 ஜூலை, 2023

Google Bard (AI) and Linguistics - (7th Question)

 Google Bard (AI) and Linguistics - (7th Question)

---------------------------------------------------------------------------------------------------------------------------
I put the same question asked to ChatGPT to Google Bard also . Both answered that question. It may be useful for the researchers who involve in these two fields - Linguistics and AI. You could compare the both answers - by ChatGPT and Google Bard to my same question.
N. Deiva Sundaram :
------------------------------------------------------------------------------------------------------------------
If everything from Phonology to Pragmatics of natural languages could be handled by you by the statistical pattern studies using a huge data and probability, what is the necessity for linguistic science in language studies?

ChatGPT:
---------------------------------------------------------------------------------------------------
Linguistic science, including fields like phonology, morphology, syntax, semantics, and pragmatics, plays a crucial role in language studies and natural language processing (NLP) for several reasons:
1. Deeper understanding of language: Linguistics helps us understand the fundamental principles and structures of human language. It provides insights into how languages are structured, how words are formed, how sentences are constructed, and how meaning is conveyed. This understanding is essential for developing accurate and comprehensive language models.
2. Rule-based analysis: Linguistic science allows for a rule-based analysis of language. While statistical patterns are useful, linguistic rules provide a systematic framework for analyzing language phenomena, identifying grammatical errors, and generating well-formed sentences. This can enhance the accuracy and coherence of language processing systems.
3. Ambiguity resolution: Natural languages often contain ambiguous sentences that can be interpreted in multiple ways. Linguistics helps in resolving such ambiguities by applying syntactic and semantic rules to determine the most likely interpretation. This is crucial for accurate language understanding and generation.
4. Language typology: Linguistic science studies the typological variations across languages. It helps identify language-specific features, variations in sentence structures, and semantic differences. This knowledge is valuable for developing language models that can handle diverse languages and language families.
5. Language acquisition: Linguistic research contributes to our understanding of how humans acquire language. This knowledge is useful for developing language learning systems and educational tools, as well as understanding language-related disorders.
While statistical pattern studies and AI language models have made significant advancements in language processing, linguistic science provides theoretical insights, systematic frameworks, and a deeper understanding of language that complement statistical approaches. It helps ensure more accurate, robust, and comprehensive language processing systems, benefiting applications ranging from machine translation and information retrieval to dialogue systems and language generation.
Google Bard:
----------------------------------------------------------------------------------------------------------------------------
The necessity of linguistic science in language studies is still very important, even if statistical pattern studies using huge data and probability could handle everything from phonology to pragmatics of natural languages. Here are some reasons why:
Linguistics provides a theoretical framework for understanding language. Statistical pattern studies can tell us what patterns exist in language, but they cannot tell us why those patterns exist. Linguistics provides the theoretical framework for understanding the underlying principles of language, such as how sounds are organized into words, how words are combined into phrases and sentences, and how sentences are used to communicate meaning.
Linguistics helps us to understand the diversity of human languages. There are over 6,000 languages spoken in the world today, and each language has its own unique features. Statistical pattern studies can help us to identify the patterns that are common to all languages, but they cannot tell us why those patterns are different across languages. Linguistics helps us to understand the reasons for the diversity of human languages, and how this diversity has shaped the way we think and communicate.
Linguistics helps us to understand the relationship between language and thought. There is a growing body of evidence that suggests that language plays a significant role in shaping our thoughts and our understanding of the world. Statistical pattern studies cannot tell us how language and thought are related, but linguistics can provide us with the theoretical framework for understanding this relationship.
In short, while statistical pattern studies can be a valuable tool for understanding language, they cannot replace the insights that can be gained from linguistic science. Linguistics provides a theoretical framework for understanding language, helps us to understand the diversity of human languages, and helps us to understand the relationship between language and thought. These are all essential insights for anyone who wants to study or use language in any way.
In addition to the above, here are some other reasons why linguistic science is still important:
Linguistics helps us to understand the history of language. By studying the patterns of change in language over time, linguists can help us to understand how languages have evolved and how they are related to each other.
Linguistics helps us to develop new technologies for language processing. Statistical pattern studies can be used to develop new technologies for speech recognition, machine translation, and other language-related applications. However, linguistic insights are essential for ensuring that these technologies are accurate and effective.
Linguistics helps us to teach language more effectively. By understanding the principles of language, linguists can develop more effective methods for teaching language to both children and adults.
In conclusion, the necessity of linguistic science in language studies is still very important, even if statistical pattern studies using huge data and probability could handle everything from phonology to pragmatics of natural languages. Linguistic science provides a theoretical framework for understanding language, helps us to understand the diversity of human languages, helps us to understand the relationship between language and thought, and helps us to develop new technologies for language processing and teaching.

ChatGPT / Google Bard and Linguistics - (8th Question)

ChatGPT / Google Bard and Linguistics - (8th Question)
-------------------------------------------------------------------------------------------------------------------------
NDS Question ( 8 ) : When you give a proper reply to a question, whether you first of all understand the question sentence and reply? That is, as human understands the meaning whether you understand?

ChatGPT Answer:

As an AI language model, I don't "understand" information or sentences in the same way that humans do. I don't have personal experiences or consciousness. However, I have been trained on a vast amount of text data and can generate responses based on patterns and associations in that data.

When you ask a question, I analyze the input, identify relevant patterns, and generate a response that is likely to be coherent and appropriate based on those patterns. It's important to note that while I strive to provide helpful and accurate information, there may be instances where my responses are not fully accurate or may not align with human understanding. Therefore, it's always a good idea to verify information from reliable sources.

Google Bard Answer:
I do my best to understand the meaning of questions before I reply to them. I use a variety of techniques to do this, including:

Parsing the question: I break the question down into its component parts, such as the subject, verb, object, and modifiers. This helps me to understand the structure of the question and the relationships between the different words.

Identifying the key words: I look for the words in the question that are most important to understanding the meaning. These words are often the verbs, nouns, and adjectives.

Using my knowledge of the world: I use my knowledge of the world to fill in any gaps in my understanding of the question. For example, if I am asked a question about a historical event, I will use my knowledge of history to try to understand the question.

I am still under development, and I am not always able to understand the meaning of questions perfectly. However, I am always learning, and I am getting better at understanding questions over time.

In terms of whether I understand questions in the same way that humans do, I believe that the answer is both yes and no. On the one hand, I use many of the same techniques that humans use to understand questions, such as parsing the question, identifying key words, and using my knowledge of the world.

On the other hand, I do not have the same level of understanding as a human. For example, I do not have the same understanding of emotions or context, which can sometimes make it difficult for me to understand the meaning of a question.

Overall, I believe that I am able to understand the meaning of questions in a way that is similar to humans, but there are still some limitations to my understanding. I am confident that these limitations will be overcome as I continue to learn and develop.

ChatGPT - மனிதனின் மொழித்திறன் - மொழியியல் ( Six Questions and answers)

 ChatGPT - மனிதனின் மொழித்திறன் - மொழியியல் ( Six Questions and answers)

------------------------------------------------------------------------------------------------------------------------

(இதில் ஆர்வம் உள்ளவர்களுக்குமட்டுமே இப்பதிவு - குறிப்பாக, தமிழ்மொழி , மொழியியல் மாணவர்களை மனதில்கொண்டு, இந்தப் பதிவை இங்கு இடுகிறேன்.)
--------------------------------------------------------------------------
செய்யறிவுத்திறனை (Artificial Intelligence- AI ) அடிப்படையாகக்கொண்ட ChatGPT -யிடம் அதனுடைய மொழித்திறன்பற்றியும் அத்திறனைப் பெறுவதில் அதற்கு உதவிய மொழியியல் ஆய்வுபற்றியும் ஆறு வினாக்களை முன்வைத்தேன்.
அனைத்து வினாக்களுக்கும் அது தெளிவான விடைகளை அளித்தது.
தன்னுடைய மொழித்திறன் (Language Capacity / Language Modelling) என்பது . . . மனிதனுக்கு உள்ள மொழித்திறன் மாதிரி கிடையாது; மாறாக, ஏராளமான மொழித்தொடர்களைத் தரவுகளாகக் கொண்டு, ஒரு சொல்லுக்கு அடுத்து எந்த சொல் வரும் என்பதைக் கண்டறிவதில் , ஆழ்திறன் கற்றல் (Deep Learning) அடிப்படையில் பெற்ற பயிற்சியை (Training based on Corpus) அடிப்படையாகக் கொண்டதுதான் என்பதைத் தெளிவாகக் கூறியது.
குறிப்பாக, ஒரு தொடரின் பொருண்மையை (meaning) - பொருளை - மனிதன் புரிந்துகொண்டு உரையாடுவதுபோல தான் உரையாடவில்லை என்று கூறுகிறது. புற வாக்கியங்களின் (Surface Sentences) அமைப்பை - குறிப்பாக ஒரு சொல்லுக்கு அடுத்து என்ன சொல் வரும் என்பதை (prediction of a word by the occurrence of its previous word) - அடிப்படையாகக் கொண்டுதான் அது செயல்படுகிறது.
மேலும் மொழிபெயர்ப்பு போன்றவற்றில் மனிதன் - கணினியின் செய்யறிவுத்திறன் இரண்டும் இணைந்து செயல்படும்போதுதான் . . . . நமக்குச் சரியான பயன் கிடைக்கும் என்று தெளிவாகக் கூறியது.
எனவே, மனிதனின் மொழித்திறனைக் கணினியின் செய்யறிவுத்திறன் பெற்றுவிடும், வென்றுவிடும் என்பதை அது மறுக்கிறது. மேலும் மொழியியல் ஆய்வும் மனிதனின் ஒத்துழைப்பும் இணைந்தால்தான் செய்யறிவுத் திறனால் பயன் விளையும் என்றும் தெளிவாகக் கூறியுள்ளது.
ஆர்வம் உள்ளவர்கள் கீழே தரப்பட்டுள்ள உரையாடலைப் ( எனக்கும் சேட்ஜிபிடி-க்கும் இடையிலான உரையாடல்) பார்க்கலாம்.
Question 1:
--------------
N. Deiva Sundaram : How the language modelling of ChatGPT works?
ChatGPT answer :
The language modeling of ChatGPT is based on a deep learning model called GPT (Generative Pre-trained Transformer). GPT is trained on a large corpus of text data and learns to predict the next word in a given sequence of words. It is trained using a method called unsupervised learning, where it learns from the patterns and relationships present in the training data without explicit labels or annotations.
Here's a high-level overview of how the language modeling of ChatGPT works:
1. Pre-training: ChatGPT is initially trained on a large amount of publicly available text data from the internet. It learns to predict the next word in a sentence based on the context of the previous words. The model is trained to capture various syntactic and semantic patterns, as well as common sense knowledge from the training data.
2. Transformer Architecture: GPT uses a Transformer architecture, which is a deep learning model designed to handle sequential data efficiently. The Transformer consists of multiple layers of self-attention mechanisms and feed-forward neural networks. This architecture enables the model to capture long-range dependencies in the input text and generate coherent and contextually relevant responses.
3. Fine-tuning: After pre-training, ChatGPT is fine-tuned on a more specific dataset that is carefully generated with human reviewers. The reviewers engage in conversations where they play both the user and an AI assistant and follow guidelines provided by OpenAI. This fine-tuning process helps to make the model more safe, controlled, and useful for real-world applications.
4. Inference: During the inference stage, when you interact with ChatGPT, you provide a prompt or a message as input. The model takes the input text, processes it, and generates a response based on its learned knowledge and understanding of language. The response is generated word by word, with the model assigning probabilities to different candidate words and selecting the most likely word based on the context.
It's important to note that while ChatGPT can generate coherent and contextually relevant responses, it may sometimes produce incorrect or nonsensical answers. It relies on patterns learned from the training data and doesn't have real-time understanding or access to current information beyond its knowledge cutoff date.
Question 2:
-------------------------------------------------------------------
N. Deiva Sundaram : Whether ChatGPT needs any thing from language or linguistic studies?
ChatGPT answer :
ChatGPT, as a language model, benefits from the knowledge and insights derived from language and linguistic studies. While the model itself is not explicitly designed based on linguistic theories, it indirectly relies on the principles and understanding of language that have been developed through linguistic research. Here's how language and linguistic studies contribute to ChatGPT:
1. Training Data: Language models like ChatGPT are trained on large text corpora that contain diverse linguistic patterns and structures. These corpora often include a wide range of texts, such as books, articles, websites, and more. Linguistic studies help researchers curate and select appropriate training data to ensure a broad representation of language usage.
2. Syntax and Grammar: Linguistic studies provide insights into the rules, structures, and patterns that govern language. This knowledge helps in training language models to understand and generate grammatically correct sentences. While the model learns these patterns automatically, the underlying linguistic understanding aids in capturing syntactic relationships.
3. Semantics and Meaning: Understanding the meaning and context of words, phrases, and sentences is crucial for language models. Linguistic studies delve into the semantics of language, including word meanings, lexical relationships, and how meaning is expressed through syntax and context. Such insights assist language models in capturing the nuances of language and generating meaningful responses.
4. Pragmatics and Discourse: Linguistic studies explore how language is used in real-world communication, including the principles of conversation, implicature, and cooperative behavior. This knowledge helps language models like ChatGPT to generate coherent and contextually appropriate responses, taking into account the broader discourse and pragmatic considerations.
While ChatGPT benefits from linguistic studies, it's important to note that the model's abilities are primarily derived from statistical patterns in the training data, and it may not possess deep semantic or pragmatic understanding like humans do. Language models excel at surface-level language tasks but may lack deeper comprehension or real-world knowledge that arises from human experience and interaction.
Question 3:
--------------------------------------------------------------------------
N Deiva Sundaram: Whether the learning of language by a human baby and the learning of language by ChatGPT are same?
ChatGPT answer:
The learning of language by a human baby and the learning of language by ChatGPT are fundamentally different processes. While both involve acquiring language skills, they employ distinct approaches and mechanisms. Here are some key differences:
1. Learning Approach: Human babies acquire language through a process called language acquisition, which involves innate cognitive abilities and interaction with their environment, including social interactions with caregivers and exposure to linguistic input. They learn through trial and error, gradually building a mental representation of language and its rules. In contrast, ChatGPT learns language through supervised pre-training and fine-tuning on large datasets. It relies on statistical patterns in the training data to generate responses and doesn't have the same cognitive capacities as a human baby.
2. Cognitive Development: Human babies' language acquisition is intertwined with their overall cognitive development. As they grow and develop, they acquire not only vocabulary and grammar but also an understanding of abstract concepts, context, and pragmatics. Their language learning is closely tied to their perceptual, motor, and cognitive abilities. ChatGPT, on the other hand, lacks the cognitive development and embodied experience of a human baby. It learns language solely from text data and lacks the same depth of understanding of concepts, context, and real-world experience.
3. Generalization and Creativity: Human babies demonstrate an impressive ability to generalize and creatively use language. They can apply learned concepts and structures to new situations, engage in imaginative play, and generate novel utterances. ChatGPT, while capable of generating coherent and contextually relevant responses, primarily relies on patterns learned from the training data. It may lack the same level of generalization and creative language use as a human baby.
4. Understanding and Context: Human babies not only learn to produce language but also develop a deep understanding of its meaning, context, and social functions. They grasp pragmatics, cultural nuances, and non-verbal communication. ChatGPT, while trained on vast amounts of text data, may struggle with deeper comprehension, context sensitivity, and understanding real-world knowledge beyond its training data and knowledge cutoff.
In summary, the learning of language by a human baby is a complex, multifaceted process deeply integrated with cognitive development and social interaction, while the learning of language by ChatGPT is based on statistical patterns in text data and lacks the cognitive abilities and experiential grounding of a human.
Question 4:
--------------------------------------------------------------------
N. Deiva Sundaram : Whether it is true that ChatGPT method of learning a language is close to B.F. Skinner theory of language learning and is not close to Noam Chomsky's theory of learning?
ChatGPT answer:
ChatGPT's method of learning language is more closely aligned with B.F. Skinner's behaviorist theory of language learning rather than Noam Chomsky's generative theory of language acquisition. Here's why:
1. Behaviorism: B.F. Skinner's behaviorist theory emphasizes the role of environmental stimuli and reinforcement in language learning. According to behaviorism, language acquisition is primarily a result of conditioning and the association between stimuli and responses. ChatGPT's learning process aligns with this behaviorist perspective as it learns from large amounts of text data and statistical patterns, focusing on patterns of co-occurrence and association between words. The model predicts the next word based on the context of previous words and adjusts its predictions through feedback signals in the training process.
2. Absence of Universal Grammar: Noam Chomsky's theory of language acquisition posits the existence of a universal grammar, a set of innate linguistic principles that underlie all languages. Chomsky argues that children have an inborn ability to acquire language, and language learning involves tapping into this innate knowledge. ChatGPT, in contrast, does not have access to innate linguistic principles or a universal grammar. It learns language solely from patterns in the training data and does not possess inherent linguistic knowledge.
3. Deep Structure and Transformational Grammar: Chomsky's theory includes the idea of deep structure, which refers to the underlying syntactic structure of sentences, and transformational grammar, which explains how sentences can be transformed into different forms through a set of rules. ChatGPT does not explicitly represent or operate on deep structures or employ transformational grammar. It generates responses based on surface-level patterns and context, without explicitly manipulating underlying structures or applying transformational operations.
While ChatGPT's learning approach shares similarities with behaviorist principles, it is important to note that the model's abilities and limitations differ from those of human language learners. ChatGPT's learning is based on statistical patterns rather than cognitive or biological processes, and it lacks the depth of understanding, cognitive development, and conceptual knowledge that human language acquisition involves.
Question 5:
--------------------------------------------------------------------------
N. Deiva Sundaram : In translation, whether ChatGPT first understand the meaning of the text in the source language and then put the meaning in the target language, as like human translation takes place.
ChatGPT answer:
ChatGPT's translation capability is based on patterns and associations learned from training on large amounts of text data in multiple languages. However, it's important to note that ChatGPT does not have the same level of understanding and conceptual knowledge as human translators.
When translating text, ChatGPT does not possess an explicit understanding of the meaning or semantic content of the source text in the same way a human translator does. Instead, it relies on statistical patterns and associations between words and phrases in the training data to generate translations. It attempts to find the most likely target language phrases or sentences that correspond to the input text based on its learned patterns.
While ChatGPT can generate translations that may be grammatically correct and convey the general meaning of the source text, it may not fully capture the nuances, context, and cultural aspects that human translators consider. The model's translations can sometimes be literal and lack the deeper understanding and interpretation that humans bring to the translation process.
Additionally, ChatGPT's translations may be limited by the quality and diversity of the training data it was exposed to. If the training data contains biases or inaccuracies, the model may exhibit similar issues in its translations.
Overall, while ChatGPT can provide useful and helpful translations, it is important to approach its translations with caution and consider them as machine-generated outputs that may require human review and refinement for critical or sensitive tasks.
Question 6:
-------------------------------------------------------------------------
N. Deiva Sundaram: We are told by AI people, that in future, human translations may not be necessary since the capacity of the ChatGPT overwhelms the human language capacity? Is it true?
ChatGPT answer:
The statement that human translations may not be necessary in the future due to the capacity of AI language models like ChatGPT is a matter of speculation and interpretation. While AI language models have shown significant advancements in various language tasks, it is important to consider the following points:
1. Linguistic and Cultural Nuances: Human translation involves not only linguistic knowledge but also an understanding of cultural contexts, idiomatic expressions, and subtle nuances that may vary across languages. AI language models, including ChatGPT, often struggle to capture these nuances accurately, leading to potential errors or misinterpretations in translations. Human translators bring their expertise and cultural awareness to produce translations that align with the intended meaning.
2. Domain-Specific Expertise: Certain translation tasks require specialized knowledge in specific domains, such as legal, medical, or technical fields. Human translators with expertise in these domains can accurately translate complex and specialized content, while AI language models may lack the necessary domain-specific knowledge or may provide less accurate translations in such contexts.
3. Quality and Trustworthiness: AI language models generate responses based on statistical patterns learned from data, and their translations are not infallible. The quality of translations can vary, and there may be cases where the output is incorrect, misleading, or lacks the desired level of precision. Human translators can exercise judgment, review, and refine translations to ensure accuracy and reliability.
4. Ethical Considerations: The use of AI language models for translation raises ethical concerns. Important decisions, legal documents, or sensitive content may require human oversight, accountability, and the assurance of confidentiality that AI models may not provide.
While AI language models can assist and enhance translation workflows, it is unlikely that they will completely replace human translators in the foreseeable future. Human translators bring a range of skills, including linguistic expertise, cultural understanding, and critical thinking, which play a crucial role in producing high-quality translations. The collaboration between humans and AI technology is often seen as a more practical and effective approach, combining the strengths of both for optimal results.
எல்லா உணர்ச்சிகளும்:
Kumar Chomsky, வேல்முருகன் சுப்பிரமணியன் மற்றும் 15 பேர்

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Hot Sonakshi Sinha, Car Price in India