ஜனாதிபதி தேர்தலில் செயற்கை நுண்ணறிவின் தாக்கம் குறித்து எச்சரிக்கை
எதிர்வரும் ஜனாதிபதித் தேர்தலில் செயற்கை நுண்ணறிவு தொழில்நுட்பத்தின் (AI Technology) தாக்கம் குறித்து எச்சரிக்கை விடுக்கப்பட்டுள்ளது.
ஜனாதிபதித் தேர்தல் காலத்தில் நாட்டு மக்கள் செயற்கை நுண்ணறிவு தொழில்நுட்பம் தொடர்பில் போதியளவு விழிப்புணர்வுடன் செயற்பட வேண்டுமென அறிவுறுத்தப்பட்டுள்ளது.
பேராதனை பல்கலைக்கழகத்தின் இலத்திரனியல் பொறியியற் பீடத்தின் பேராசிரியர் விஜித ஹேரத் (Wijitha Herath) இந்த எச்சரிக்கையை விடுத்துள்ளார்.
பிழையான தகவல்கள்
உலகின் அதி நவீன தொழில்நுட்பங்களில் ஒன்றான செயற்கை நுண்ணறிவு இரண்டு பக்கங்களிலும் வெட்டக்கூடிய ஆயுதம் போன்றது என அவர் சுட்டிக்காட்டியுள்ளார்.
எனவே, இதன் தொழிற்பாடுகள் குறித்து மக்கள் சரியான புரிதலுடன் இருக்க வேண்டியது அவசியமானது என அவர் தெரிவித்துள்ளார்.
செயற்கை நுண்ணறிவைப் பயன்படுத்தி 'ChatGPT' போன்ற செயலிகளின் ஊடாக அறிவினை பெற்றுக்கொள்ள முடியும் என்பதுடன் பணிகளை இலகுவாக்கிக்கொள்ள முடியும் என ஹேரத் கூறியுள்ளார்.
செயற்கை நுண்ணறிவின் ஊடாக பணியொன்றை செய்யும்போது சரியான தரவுகளை உள்ளீடு செய்யாவிட்டால் பிழையான தகவல்களையே வெளிப்படுத்தும் என அவர் குறிப்பிட்டுள்ளார்.
புகைப்படங்கள் மற்றும் காணொளிகள் என்பனவற்றை செயற்கை நுண்ணறிவு தொழில்நுட்பத்தைக் கொண்டு உருவாக்கிக் கொள்ள முடியும் என அவர் சுட்டிக்காட்டியுள்ளார். யதார்த்தத்திற்கு பொருத்தமற்ற காணொளிகள், புகைப்படங்கள் உருவாக்க முடியும் என அவர் தெரிவித்துள்ளார்.
போலியான காணொளிகள்
இந்த விடயம் தொடர்பில் போதியளவு தெளிவு இல்லை என்றால் இந்த காணொளிகள் மற்றும் புகைப்படங்கள் உண்மையானவை என்று மக்கள் கருதக்கூடும் என அவர் எச்சரிக்கை விடுத்துள்ளார்.
போலியாக உருவாக்கப்படும் காணொளிகள் மற்றும் புகைப்படங்கள் சமூக ஊடகங்களில் சில நிமிடங்களில் பகிரப்பட முடியும் என அவர் தெரிவித்துள்ளார்.
நபர் ஒருவரின் குரல் மற்றும் உருவத்தைக் கொண்டு போலியான காணொளிகளை உருவாக்க முடியும் என்பதனை மக்கள் நினைவில் நிறுத்திக் கொள்ள வேண்டும்.
எனவே, ஜனாதிபதி தேர்தலின் போது இந்த செயற்கை நுண்ணறிவு தொழில்நுட்பத்தை துஸ்பிரயோகம் செய்யக்கூடிய சாத்தியம் உண்டு என்பதனை மக்கள் புரிந்து கொள்ள வேண்டுமென பேராசிரியர் விஜித ஹேரத் சுட்டிக்காட்டியுள்ளார்.
நாட்டு நடப்புகளை உங்கள் கைபேசியில் பெற்றுக்கொள்ள தமிழ்வின் WHATSAPP CHANNEL இல் இணையுங்கள் JOIN NOW |