ChatGPT மற்றும் Google Bard பயன்படுத்துபவர்களுக்கு எச்சரிக்கை!... ஆரோக்கியத்திற்கான AI நெறிமுறைகள்!… உலக சுகாதார நிறுவனம்!
மனித நல்வாழ்வு , மனித பாதுகாப்பு மற்றும் சுயாட்சியைப் பாதுகாக்கவும் மேம்படுத்தவும் மற்றும் பொது சுகாதாரத்தைப் பாதுகாக்கவும் செயற்கை நுண்ணறிவு (AI) உருவாக்கப்பட்ட பெரிய மொழி மாதிரி கருவிகளை (LLMs) பயன்படுத்துவதில் எச்சரிக்கையாக இருக்குமாறு உலக சுகாதார அமைப்பு ( WHO ) அழைப்பு விடுத்துள்ளது. LLM களில் ChatGPT , பார்ட், பெர்ட் போன்ற மிக வேகமாக விரிவடையும் தளங்கள் மற்றும் பிறவற்றை புரிந்துகொள்வது, செயலாக்குவது மற்றும் மனித தகவல்தொடர்புகளை உருவாக்குவது ஆகியவை அடங்கும்.
LLMகளை சுகாதாரத் தகவலுக்கான அணுகலை மேம்படுத்த, முடிவெடுக்கும்-ஆதரவு கருவியாக அல்லது மக்களின் ஆரோக்கியத்தைப் பாதுகாப்பதற்கும் சமத்துவமின்மையைக் குறைப்பதற்கும் குறைவான ஆதார அமைப்புகளில் கண்டறியும் திறனை மேம்படுத்துவதற்கும் எல்.எல்.எம்.களைப் பயன்படுத்தும் போது, அபாயங்கள் கவனமாக ஆராயப்பட வேண்டியது அவசியம்" என்று உலக சுகாதார நிறுவனம் கூறியது. இது தொடர்பான அறிக்கையில், சுகாதாரப் பாதுகாப்பு வல்லுநர்கள், நோயாளிகள், ஆராய்ச்சியாளர்கள் மற்றும் விஞ்ஞானிகளுக்கு ஆதரவாக எல்எல்எம்கள் உள்ளிட்ட தொழில்நுட்பங்களைப் பயன்படுத்துவதில் ஆர்வமாக இருந்தாலும், "எந்தவொரு புதிய தொழில்நுட்பத்திற்கும் பொதுவாகப் பயன்படுத்தப்பட வேண்டிய எச்சரிக்கை இல்லை என்பது கவலை அளிக்கிறது" என்று ஐ.நா அமைப்பு கூறியது. எல்.எல்.எம்.களுடன் தொடர்ந்து பயிற்சி செய்யப்பட்டது. வெளிப்படைத்தன்மை, உள்ளடக்கம், பொது ஈடுபாடு, நிபுணர் மேற்பார்வை மற்றும் கடுமையான மதிப்பீடு போன்ற முக்கிய மதிப்புகளை பரவலாகக் கடைப்பிடிப்பது இதில் அடங்கும்."
LLMகளைப் பற்றி WHO கவலைப்படும் 5 விஷயங்கள்: AIயைப் பயிற்றுவிப்பதற்குப் பயன்படுத்தப்படும் தரவு ஒரு சார்புடையதாக இருக்கலாம், தவறாக வழிநடத்தும் அல்லது தவறான தகவலை உருவாக்குகிறது, இது ஆரோக்கியம், சமபங்கு மற்றும் உள்ளடக்கம் ஆகியவற்றுக்கு ஆபத்தை ஏற்படுத்தலாம்.
LLMகள் ஒரு இறுதிப் பயனருக்கு அதிகாரப்பூர்வமாகவும் நம்பத்தகுந்ததாகவும் தோன்றும் பதில்களை உருவாக்குகின்றன; இருப்பினும், இந்த பதில்கள் முற்றிலும் தவறாக இருக்கலாம் அல்லது கடுமையான பிழைகளைக் கொண்டிருக்கலாம், எல்.எல்.எம்.க்கள், அத்தகைய பயன்பாட்டிற்கு முன்னர் ஒப்புதல் வழங்கப்படாத தரவுகளின் மீது பயிற்சியளிக்கப்படலாம், மேலும் எல்.எல்.எம்.க்கள், பதிலை உருவாக்க ஒரு பயன்பாட்டிற்கு வழங்கும் முக்கியமான தரவை (சுகாதாரத் தரவு உட்பட) பாதுகாக்காது.
நம்பகமான சுகாதார உள்ளடக்கத்தில் இருந்து வேறுபடுத்துவது பொதுமக்களுக்கு கடினமாக இருக்கும் உரை, ஆடியோ அல்லது வீடியோ உள்ளடக்கம் வடிவில் மிகவும் உறுதியான தவறான தகவலை உருவாக்கவும் பரப்பவும் LLMகள் தவறாகப் பயன்படுத்தப்படலாம். மனித ஆரோக்கியத்தை மேம்படுத்த AI மற்றும் டிஜிட்டல் ஹெல்த் உள்ளிட்ட புதிய தொழில்நுட்பங்களைப் பயன்படுத்துவதில் உறுதியாக இருக்கும்போது, LLM களை வணிகமயமாக்க தொழில்நுட்ப நிறுவனங்கள் வேலை செய்யும் போது, கொள்கை வகுப்பாளர்கள் நோயாளியின் பாதுகாப்பையும் உறுதிப்படுத்த வேண்டும் என்று WHO பரிந்துரைக்கிறது.
இதுகுறித்து WHO தலைமை விஞ்ஞானி ஜெர்மி ஃபாரர், LMMகளின் வடிவமைப்பு, மேம்பாடு மற்றும் பயன்பாடு ஆகியவற்றை நிர்வகிப்பதற்கான வெளிப்படையான தகவல் மற்றும் கொள்கைகளின் முக்கியத்துவத்தை வலியுறுத்தினார். சிறந்த சுகாதார விளைவுகளை அடைவதற்கும், தொடர்ந்து நிலவும் சுகாதார ஏற்றத்தாழ்வுகளைக் கடப்பதற்கும் LMMகளின் வடிவமைப்பு, மேம்பாடு மற்றும் பயன்பாடு ஆகியவற்றை நிர்வகிக்க எங்களுக்கு வெளிப்படையான தகவல் மற்றும் கொள்கைகள் தேவை என்று தெரிவித்துள்ளார்.
LMM களின் அணுகல் மற்றும் மலிவு மற்றும் சுகாதாரப் பாதுகாப்பில் 'ஆட்டோமேஷன் சார்பு' ஆபத்து போன்றவைகள் கவலைகளை உண்டாக்குகின்றன. முன்னணி வல்லுநர்கள் மற்றும் நோயாளிகள் பிழைகளைக் கவனிக்கவில்லை என்று WHO தெரிவித்துள்ளது. நோயாளி தகவலின் உணர்திறன் மற்றும் இந்த வழிமுறைகளின் நம்பகத்தன்மையின் அடிப்படையில் சைபர் பாதுகாப்பு என்பது மற்றொரு முக்கியமான பிரச்சினையாகும். எனவே, LMM மேம்பாடு மற்றும் வரிசைப்படுத்தலின் அனைத்து நிலைகளிலும் அரசுகள், தொழில்நுட்ப நிறுவனங்கள், சுகாதார வல்லுநர்கள், நோயாளிகள் மற்றும் சிவில் சமூகத்தை உள்ளடக்கிய ஒரு கூட்டு அணுகுமுறைக்கு WHO அழைப்பு விடுத்துள்ளது.
எல்எம்எம்கள் போன்ற AI தொழில்நுட்பங்களின் வளர்ச்சி மற்றும் பயன்பாட்டை திறம்பட ஒழுங்குபடுத்துவதற்கான முயற்சிகளுக்கு அனைத்து நாடுகளின் அரசாங்கங்களும் ஒத்துழைப்புடன் வழிநடத்த வேண்டும் என்று WHO இயக்குனர் டாக்டர் அலைன் லேப்ரிக் கூறினார்.