AI பாதுகாப்பு வாதிகளைக் கேட்டுக் கொள்கிறார்கள், உள்நுழைந்த திறனுள்ள அமைப்புகளுக்கு ஒप्पென்ஹைமரின் அணு வெடிகளை சோதனைச் செய் கணக்குகளை நகலெடுக்க வேண்டும் என்று கேட்டுக் கொள்கிறார்கள்.

க artificial intelligence நிறுவனங்கள் ராபர்ட் ஆக்பென்பைமரின் முதல் அணுகுண்டு பரிசோதனையை அறிவித்த பிறகு, அதிவிடும் சக்திவாய்ந்த அமைப்புகளை வெளியிடுவதற்குள் பாதுகாப்பு கணக்கீடுகளை நகலெடுக்க ஊக்குவிக்கப்பட்டுள்ளன. AI பாதுகாப்பில் முக்கியமான திரு மேக்ஸ்டெகம் மார்க், அமெரிக்கப் பிசிகிஸ்ட் ஆர்தர் காம்ப்டனின் Trinity பரிசோதனைக்கு முன்பாக நடத்தப்பட்ட கணக்கீடுகளைப் போன்று தன்னை நடத்திவிட்டதாக வெளிப்படுத்தினார். மார்க், மிகவும் முன்னேற்றமான AI மனித உயிரை அச்சுறுத்தும் அபாயம் உருவாகும் சாத்தியக்கூறுகள் 90% என்று கண்டுபிடித்தார். அமெரிக்க அரசு, 1945-ல் Trinity பரிசோதனையை நடத்த முன், உலகத்திடம் அணு বம் வலை விரிவடைய வாய்ப்பை அறிவித்தே, தாக்கம் மிகக் குறைவானது என்று நம்பிக்கை வைத்தது. மிகவும் முனைப்புடைய AI பாதுகாப்பு ஆராய்ச்சியாளர்களான மார்க் மற்றும் அவரது MIT மாணவர்களால் எழுக்கப்பட்ட ஒரு பத்திரிகையில், அவர்கள் “காம்ப்டன் நிலைப்பாட்டை” கணக்கிட பரிந்துரைத்துள்ளனர், இது ஒரு சக்திவாய்ந்த AI மனிதர்களின் கட்டுப்பாட்டை தவிர்க்கும் சாத்தியக்கூறாக அறியப்படுகிறது. 1959-ல் அமெரிக்க எழுத்தாளர் பீர் பக் உடன் இடுகையிடப்பட்ட ஒரு பேட்டி, காம்ப்டன், அவன் இந்த பரிசோதனையை ஒப்புதல் வழங்கியதுடன், வெளியேற்றப்படாத பொருளின் சாத்தியக்கூறுகளை மூன்று இலட்சம் மில்லியனில் ஒரு அளவில் மதிப்பீட்டினைத் தெரிவித்திருக்கிறார். மார்க் கூறினார், AI நிறுவனங்கள் மனித கண்ணால் கடைபிடிக்க முடியாத உருவாக்கப் பார்க்கும் இயந்திர அறிவைப் (ASI) தவிர்க்கும் சாத்தியக்கூறுகளைச் சுைறப் படுத்துவதில், மிகிச் சிறந்த பொறுப்பை ஏற்க வேண்டும். “பெரிய அளவுள்ள இயந்திர அறிவை உருவாக்கும் நிறுவனங்கள், காம்ப்டன் நிலைப்பாட்டை கணக்கிடவேண்டும், அதை நாம் கட்டுப்படுத்த முடியாமலிருப்பதின் சாத்தியக்கூறை, ” அவர் கூறினார். “நாம் உணர்கிறோம் என்று மட்டும் சொல்லியே போதாது.
அதற்கு சாத்தியக்கூறை கணக்கிட வேண்டும். ” மார்க், பல நிறுவனங்களின் ஒருங்கிணைந்த கருத்து, காம்ப்டன் நிலைப்பாட்டைப் பிரபலப்படுத்தும், உலகளாவிய AI பாதுகாப்பு தரைகளைக் கட்டுந்தறக்க உதவும் "அரசியல் எண்ணம்" உருவாக்கும் முனைகிறது என்று பரிந்துரைத்தார். MIT உள்ள ஒரு இயற்பியல் மற்றும் AI ஆராய்ச்சியாளராகிய மார்க், எதிர்கால உயிரணுவின் இன்ஸ்டிடியூட் (Future of Life Institute) ஆகிய அமைப்பை கூட்டுச்செலுத்தினார், இது பாதுகாப்பான AI மேம்பாட்டை ஊக்குவிக்கும் இலாப நோக்கற்ற நிறுவனம். இத்தகவல், 2023-ல் வெளிவந்த ஓபன் கடிதத்தில், சக்திவாய்ந்த AI-களை உருவாக்கும் பணியில் தடைமறிந்து, "ஆட்டோமோட்டிவான டிஜிட்டல் மனங்களை" வெளியிடும் போட்டியில் ஈடுபட்டுள்ளதென எச்சரிக்கை செய்தது. அந்த கடிதத்தை 33, 000க்கு மேற்பட்டவர்கள், அதில் ஆரம்ப ஆதரிப்பாளராக இருந்த எலான் மஸ்க் மற்றும் ஆப் நிறுவனர் ஸ்டீவ் வோஷ்னியக் உட்பட, கையாள்கின்றனர். ChatGPT வெளிவந்த பின் எடுக்கப்பட்டது அந்த கடிதம், உலகின் பல AI ஆய்விற்கு முக்கியமான காலம் தந்து, AI ஆய்வகங்கள் கட்டுப்படாமல் "கவலைப்படுத்தும் போட்டியில்" வருகின்றன என்று எச்சரித்தது, அதில் "எவரும், அறிவு கொண்ட, அல்லது நம்பிக்கைக்குரிய பரிதாபங்களை படைக்காமல்" இருப்பது குறித்து அவதானம் கொண்டது. மார்க், டெக்னாலஜி தொழில்நுட்ப நிறுவனங்களைச் சேர்ந்த AI நிபுணர்கள், தலைமை பாதுகாப்பு பிரிவினர் மற்றும் அறிஞர்கள் சேர்ந்து, புதிய AI பாதுகாப்பு முறையை உருவாக்கும் ஒரு பதில் உருவாக்கியுள்ளனர். சிங்களூர் "உலகளாவிய AI பாதுகாப்பு ஆராய்ச்சி முன்னுரிமைகளைக் குறித்த கூட்டு உடன்படிக்கை" அறிக்கை, மார்க், பிரபல கணினி உயிரியல் வல்லுநர் யோஷுவா பெங்கியோ மற்றும் OpenAI மற்றும் Google DeepMind போன்ற முன்னணி AI நிறுவனத்தின் பணிப்பாளர்களால் தயாரிக்கப்பட்டது, மூன்று முக்கிய ஆராய்ச்சி பிரிவுகளை குறிப்பிடியது: முன்னிலை மற்றும் எதிர்கால AI அமைப்புகளின் தாக்கத்தை அளவிடும் முறைகளை உருவாக்கல்; விரும்பும் AI நடத்துவெளி மற்றும் அதை அடைய அமைப்புகளை வடிவமைத்தல்; மற்றும் AI நடத்துவெளியை நிர்வாகம் மற்றும் கட்டுப்பாடு. அந்த அறிக்கையைப் பார்த்தால், சமீபத்திய பாரிஸ் அரசாங்க AI கூட்டமைப்பின் பிறகு, பாதுகாப்பு முக்கியத்துவம் மீண்டும் அதிகரித்ததைக் குறிப்பнасார், அதில், அமெரிக்கத் துணை ஜனாதிபதி ஜேடிடிவான்ஸ் பாதுகாப்பு கவலைகளை கணக்கில் எடுத்துக் கொள்ள வேண்டாம் என்று கூறினார், அதாவது "AI எதிர்காலம் பாதுகாப்பு பற்றி கையெழுத்துக் கொள்ளும் போது வெல்லப்பது இல்லை. " மார்க் கூறினார்: "பாரிசில் இருந்து உள்ள ஏமாற்றம் குணமாகி, சர்வதேச ஒத்துழைப்பு மீண்டும் வேகமாக வந்திருக்கிறது, "
Brief news summary
AI பாதுகாப்பு நிபுணர் மேக்ஸ் டெக்மார்க், MIT பெய்கியுசின் பேராசிரியர் மற்றும் எதிர்காலம் வாழும் நிறுவனர், 1945 Trinity அணு விசை பரிசோதனைக்கு முன்னர் செய்ததுபோன்ற நிபுணத்தன்மையுள்ள பாதுகாப்பு கணக்கீடுகளை ஏற்று கொள்ள வேண்டுமென தெரிவித்தார், இது மேம்பட்ட AI மூலம் ஏற்படும் காணோலிகள் ஆகியவை. ஆர்தர் கம்பெட்டன் இத்திட்டமின் வரலாற்று மதிப்பீடுடன் ஒப்பிடும்போது, டெக்மார்ட் 90% சதவீதம், அதுவே சூப்பர்இன்டெலிஜன்ஸ் AI மனிதனின் கட்டுப்பாட்டை விட்டுவிட்டு மனித இனத்தை அபாயப்படுத்தக்கூடும் என கணிக்கிறார். அவரால் “கம்பெட்டன் நிலைத்தரம்” எனும், அவைதிடமான அபாய அளவுகோல், செயல்படுத்தப்பட்டது, இது ஓர்க்கோடான AI அபாயங்களை அறிவிப்பதற்கும், அரசியல் முடிவுகளை மேற்கொள்ளும் பேரிடரான safety ஒப்பந்தங்களை செயல்படுத்தும் நோக்கமாக உள்ளது. இந்த முயற்சி 2023 ஆம் ஆண்டு வேலை செய்யும் Life Instituteஇன் திறந்த கடிதத்துடன் ஒத்துழைக்கும், இதில் Elon Musk மற்றும் Steve Wozniak உட்பட 33,000க்கும் மேற்பட்ட நபர்கள் உள்பட பலரும், ஒழுங்குமற்ற AI போட்டிக்கு எதிராக எச்சரிக்கை விடுத்துள்ளனர். டெக்மார்ட் சிங்கப்பூர் பங்கிற்கு ஆதரவளித்தார், உலகம் முழுவதும் முக்கியமான பாதுகாப்பு ஆராய்ச்சி முன்னுரிமைகள் குறித்து சேர்ந்து பணியாற்ற வேண்டியதற்காக. சில அமெரிக்க அதிகாரிகளிடம் இருந்து சனிச்சேதப் பார்வைகளும் இருந்தாலும், உலகளாவிய ஒத்துழைப்பு மற்றும் நம்பிக்கை பாதுகாப்பான AI வளர்ச்சிக்கு மனபூர்வமான முறையில் நிலவுகின்றன.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

பிளாக்செயின் சுற்றுச்சூழல் விளைவுகள்: புதுமை மற்றும் நிலை…
பிளாக்செயின் தொழில்நுட்பம் விரைந்து முன்னேறுவதால், அதன் சுற்றுச்சூழல் பாதிப்பு உலகளாவிய கவலைகளாக மாறியுள்ளது.

ஐந்தuhan வயதான பிள்ளைகளுக்குப் போதும், குழந்தைகளுக்கான ச…
ஐக்கிய அரபு அமீரகები (UAE) குழந்தைகளுக்கான கல்வியில் முன்னேற்றத்தை மேற்கொண்டுள்ளது, மாநில பள்ளிகளில் ஆரம்ப வயதிலிருந்தே செயற்கை நுண்ணுணர்வு (AI) பாடத்திட்டத்தை அறிமுகப்படுத்தியுள்ளது.

ஆம், ஏஐ திட்டமான சில பணியாளர்களை மாற்றும். ஆனால் அந்த நா…
பல தொழில்முறைநிறுவன உரிமையாளர்களைப் போல், நான் கண்டிப்பாக செயற்கை நுண்ணறிவு (AI) அடிப்படையில் ஆர்வமாக உள்ளேன், சமீபத்தில் ChatGPT-க்கு தொழில்துறைத்தலைவர்களிடமிருந்து AI இற்றைப்படுத்தல் முக்கியத்துவம் பற்றி மேற்கோள்கள் கேட்கப்பட்டது.

பிட்ட്കாயின் கேஷ் வலைபின்னல் மே 15, 2025 இல் திட்டமிடப்பட்ட…
பிட்கOIN் காஷ் நெட்வொர்க் மே 15, 2025 ஆம் தேதி முக்கிய புதுப்பிப்பை மேற்கொள்ள உள்ளது, அதில் திறனையும் அளவிலும் உயர்வை ஏற்படுத்த புதிய ஒப்பந்த விதிகள் அறிமுகப்படுத்தப்பட உள்ளது, விரைந்த மற்றும் நம்பத்தகுந்த இடமாற்றிய PROCESSகளின் சவால்களை எதிர்கொள்ளும் வகையில்.

சிலிக்கனில் இருந்து sentience வரை: AI-யின் அடுத்த எல்லை…
மனிதர்கள் எப்போதும் இடமாற்றம் செய்துள்ளனர்—ஆக உலகளாவிய இடைவெளிகளை மட்டுமல்ல, வேலை மற்றும் எண்ணங்களின் பரிமாற்றங்களையும்.

அரசு சேவைகளில் பிளாக்செயின் ஏற்றுதல்: உலகளாவிய பரிசீலனை
உலகம் முழுவதும் அரசுக்கள் பொதுவான சேவைகளை மேம்படுத்தும் பொருட்டு மாற்றும் கருவியான பிளாக்செயின் தொழில்நுட்பத்தை அதிகமாகப் பயன்படுத்தி வருகின்றன.

பாபா லே Awesome XIV பரிசுத்த ஆட்சி பற்றிய பார்வையை வி…
போப் லியோ XIV தингிப்போது மனிதகுலத்திற்கு முக்கிய சவாலாக உள்ள कृ#############################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################யற்கை நுண்ணறிவை (AI)ப் பற்றி விளக்கி, பாப்பைத் தலைமைத்துவத்தின் முன்னுரிமைகளைத் தாங்கிப்பள்ளியிருந்தார்.