🪄🪄🪄@Mira - Trust Layer of AI #mira
ஒரு ஊரில் ஒரு மாயக்கண்ணாடி இருந்தது. அந்தக் கண்ணாடியிடம் நீங்கள் எதைக் கேட்டாலும் அது பதில் சொல்லும். ஆனால், ஒரு சிக்கல்! அந்தக் கண்ணாடி சில நேரங்களில் மிகவும் நம்பிக்கையுடன் பொய்களைச் சொல்லும் (இதைத்தான் AI உலகில் Hallucinations என்கிறோம்).
அந்த ஊர் மக்கள் முக்கியமான மருத்துவ ஆலோசனைகளுக்கும், பண விவகாரங்களுக்கும் அந்தக் கண்ணாடியையே நம்பியிருந்தனர். கண்ணாடி பொய் சொன்னால், மக்களின் வாழ்க்கை பாதிக்கப்படும் அபாயம் இருந்தது.
அப்போதுதான் "மிரா" (Mira) என்ற ஒரு புதிய முறை உருவாக்கப்பட்டது.
1. சிக்கல்: ஒற்றை அதிகாரத்தின் பொய்
தற்போதுள்ள AI மாடல்கள் (ChatGPT போன்றவை) ஒரு தனி நபரால் அல்லது நிறுவனத்தால் கட்டுப்படுத்தப்படும் ஒரு "கருப்புப் பெட்டி" (Black Box) போன்றவை. அவை தவறு செய்தால் திருத்த ஆள் இல்லை.
2. தீர்வு: மிராவின் "உண்மை கண்டறியும் குழு"
மிரா ஒரு புதிய வழியைக் கொண்டு வந்தது. இப்போது நீங்கள் மாயக்கண்ணாடியிடம் ஒரு கேள்வி கேட்டால், அது தரும் பதிலை மிரா அப்படியே உங்களிடம் தராது. அதற்குப் பதிலாக:
துண்டாக்குதல் (Decomposition): கண்ணாடி சொன்ன பதிலைச் சின்னச் சின்ன தகவல்களாகப் பிரிக்கும்.
சரிபார்த்தல் (Verification): அந்த ஒவ்வொரு தகவலையும் ஊரெங்கும் சிதறிக் கிடக்கும் நூற்றுக்கணக்கான "சுயாதீன ஆய்வாளர்களிடம்" (Verifier Nodes) அனுப்பும்.
கூட்டு முடிவு (Consensus): பெரும்பாலான ஆய்வாளர்கள் "ஆமாம், இது உண்மைதான்" என்று ஒத்துக்கொண்டால் மட்டுமே அந்தப் பதில் உங்களுக்கு வந்து சேரும்.
3. வெகுமதியும் தண்டனையும்
இந்த ஆய்வாளர்கள் சும்மா வேலை செய்ய மாட்டார்கள். சரியாகச் சரிபார்ப்பவர்களுக்கு $MIRA டோக்கன்கள் பரிசாகக் கிடைக்கும். யாராவது தவறான தகவலைச் சரி என்று சொன்னால், அவர்கள் பிணையாக வைத்திருக்கும் டோக்கன்கள் பறிமுதல் செய்யப்படும்.