lang icon Tamil
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
4

AI பாதுகாப்பு வாதிகளைக் கேட்டுக் கொள்கிறார்கள், உள்நுழைந்த திறனுள்ள அமைப்புகளுக்கு ஒप्पென்ஹைமரின் அணு வெடிகளை சோதனைச் செய் கணக்குகளை நகலெடுக்க வேண்டும் என்று கேட்டுக் கொள்கிறார்கள்.

க artificial intelligence நிறுவனங்கள் ராபர்ட் ஆக்பென்பைமரின் முதல் அணுகுண்டு பரிசோதனையை அறிவித்த பிறகு, அதிவிடும் சக்திவாய்ந்த அமைப்புகளை வெளியிடுவதற்குள் பாதுகாப்பு கணக்கீடுகளை நகலெடுக்க ஊக்குவிக்கப்பட்டுள்ளன. AI பாதுகாப்பில் முக்கியமான திரு மேக்ஸ்டெகம் மார்க், அமெரிக்கப் பிசிகிஸ்ட் ஆர்தர் காம்ப்டனின் Trinity பரிசோதனைக்கு முன்பாக நடத்தப்பட்ட கணக்கீடுகளைப் போன்று தன்னை நடத்திவிட்டதாக வெளிப்படுத்தினார். மார்க், மிகவும் முன்னேற்றமான AI மனித உயிரை அச்சுறுத்தும் அபாயம் உருவாகும் சாத்தியக்கூறுகள் 90% என்று கண்டுபிடித்தார். அமெரிக்க அரசு, 1945-ல் Trinity பரிசோதனையை நடத்த முன், உலகத்திடம் அணு বம் வலை விரிவடைய வாய்ப்பை அறிவித்தே, தாக்கம் மிகக் குறைவானது என்று நம்பிக்கை வைத்தது. மிகவும் முனைப்புடைய AI பாதுகாப்பு ஆராய்ச்சியாளர்களான மார்க் மற்றும் அவரது MIT மாணவர்களால் எழுக்கப்பட்ட ஒரு பத்திரிகையில், அவர்கள் “காம்ப்டன் நிலைப்பாட்டை” கணக்கிட பரிந்துரைத்துள்ளனர், இது ஒரு சக்திவாய்ந்த AI மனிதர்களின் கட்டுப்பாட்டை தவிர்க்கும் சாத்தியக்கூறாக அறியப்படுகிறது. 1959-ல் அமெரிக்க எழுத்தாளர் பீர் பக் உடன் இடுகையிடப்பட்ட ஒரு பேட்டி, காம்ப்டன், அவன் இந்த பரிசோதனையை ஒப்புதல் வழங்கியதுடன், வெளியேற்றப்படாத பொருளின் சாத்தியக்கூறுகளை மூன்று இலட்சம் மில்லியனில் ஒரு அளவில் மதிப்பீட்டினைத் தெரிவித்திருக்கிறார். மார்க் கூறினார், AI நிறுவனங்கள் மனித கண்ணால் கடைபிடிக்க முடியாத உருவாக்கப் பார்க்கும் இயந்திர அறிவைப் (ASI) தவிர்க்கும் சாத்தியக்கூறுகளைச் சுைறப் படுத்துவதில், மிகிச் சிறந்த பொறுப்பை ஏற்க வேண்டும். “பெரிய அளவுள்ள இயந்திர அறிவை உருவாக்கும் நிறுவனங்கள், காம்ப்டன் நிலைப்பாட்டை கணக்கிடவேண்டும், அதை நாம் கட்டுப்படுத்த முடியாமலிருப்பதின் சாத்தியக்கூறை, ” அவர் கூறினார். “நாம் உணர்கிறோம் என்று மட்டும் சொல்லியே போதாது.

அதற்கு சாத்தியக்கூறை கணக்கிட வேண்டும். ” மார்க், பல நிறுவனங்களின் ஒருங்கிணைந்த கருத்து, காம்ப்டன் நிலைப்பாட்டைப் பிரபலப்படுத்தும், உலகளாவிய AI பாதுகாப்பு தரைகளைக் கட்டுந்தறக்க உதவும் "அரசியல் எண்ணம்" உருவாக்கும் முனைகிறது என்று பரிந்துரைத்தார். MIT உள்ள ஒரு இயற்பியல் மற்றும் AI ஆராய்ச்சியாளராகிய மார்க், எதிர்கால உயிரணுவின் இன்ஸ்டிடியூட் (Future of Life Institute) ஆகிய அமைப்பை கூட்டுச்செலுத்தினார், இது பாதுகாப்பான AI மேம்பாட்டை ஊக்குவிக்கும் இலாப நோக்கற்ற நிறுவனம். இத்தகவல், 2023-ல் வெளிவந்த ஓபன் கடிதத்தில், சக்திவாய்ந்த AI-களை உருவாக்கும் பணியில் தடைமறிந்து, "ஆட்டோமோட்டிவான டிஜிட்டல் மனங்களை" வெளியிடும் போட்டியில் ஈடுபட்டுள்ளதென எச்சரிக்கை செய்தது. அந்த கடிதத்தை 33, 000க்கு மேற்பட்டவர்கள், அதில் ஆரம்ப ஆதரிப்பாளராக இருந்த எலான் மஸ்க் மற்றும் ஆப் நிறுவனர் ஸ்டீவ் வோஷ்னியக் உட்பட, கையாள்கின்றனர். ChatGPT வெளிவந்த பின் எடுக்கப்பட்டது அந்த கடிதம், உலகின் பல AI ஆய்விற்கு முக்கியமான காலம் தந்து, AI ஆய்வகங்கள் கட்டுப்படாமல் "கவலைப்படுத்தும் போட்டியில்" வருகின்றன என்று எச்சரித்தது, அதில் "எவரும், அறிவு கொண்ட, அல்லது நம்பிக்கைக்குரிய பரிதாபங்களை படைக்காமல்" இருப்பது குறித்து அவதானம் கொண்டது. மார்க், டெக்னாலஜி தொழில்நுட்ப நிறுவனங்களைச் சேர்ந்த AI நிபுணர்கள், தலைமை பாதுகாப்பு பிரிவினர் மற்றும் அறிஞர்கள் சேர்ந்து, புதிய AI பாதுகாப்பு முறையை உருவாக்கும் ஒரு பதில் உருவாக்கியுள்ளனர். சிங்களூர் "உலகளாவிய AI பாதுகாப்பு ஆராய்ச்சி முன்னுரிமைகளைக் குறித்த கூட்டு உடன்படிக்கை" அறிக்கை, மார்க், பிரபல கணினி உயிரியல் வல்லுநர் யோஷுவா பெங்கியோ மற்றும் OpenAI மற்றும் Google DeepMind போன்ற முன்னணி AI நிறுவனத்தின் பணிப்பாளர்களால் தயாரிக்கப்பட்டது, மூன்று முக்கிய ஆராய்ச்சி பிரிவுகளை குறிப்பிடியது: முன்னிலை மற்றும் எதிர்கால AI அமைப்புகளின் தாக்கத்தை அளவிடும் முறைகளை உருவாக்கல்; விரும்பும் AI நடத்துவெளி மற்றும் அதை அடைய அமைப்புகளை வடிவமைத்தல்; மற்றும் AI நடத்துவெளியை நிர்வாகம் மற்றும் கட்டுப்பாடு. அந்த அறிக்கையைப் பார்த்தால், சமீபத்திய பாரிஸ் அரசாங்க AI கூட்டமைப்பின் பிறகு, பாதுகாப்பு முக்கியத்துவம் மீண்டும் அதிகரித்ததைக் குறிப்பнасார், அதில், அமெரிக்கத் துணை ஜனாதிபதி ஜேடிடிவான்ஸ் பாதுகாப்பு கவலைகளை கணக்கில் எடுத்துக் கொள்ள வேண்டாம் என்று கூறினார், அதாவது "AI எதிர்காலம் பாதுகாப்பு பற்றி கையெழுத்துக் கொள்ளும் போது வெல்லப்பது இல்லை. " மார்க் கூறினார்: "பாரிசில் இருந்து உள்ள ஏமாற்றம் குணமாகி, சர்வதேச ஒத்துழைப்பு மீண்டும் வேகமாக வந்திருக்கிறது, "



Brief news summary

AI பாதுகாப்பு நிபுணர் மேக்ஸ் டெக்மார்க், MIT பெய்கியுசின் பேராசிரியர் மற்றும் எதிர்காலம் வாழும் நிறுவனர், 1945 Trinity அணு விசை பரிசோதனைக்கு முன்னர் செய்ததுபோன்ற நிபுணத்தன்மையுள்ள பாதுகாப்பு கணக்கீடுகளை ஏற்று கொள்ள வேண்டுமென தெரிவித்தார், இது மேம்பட்ட AI மூலம் ஏற்படும் காணோலிகள் ஆகியவை. ஆர்தர் கம்பெட்டன் இத்திட்டமின் வரலாற்று மதிப்பீடுடன் ஒப்பிடும்போது, டெக்மார்ட் 90% சதவீதம், அதுவே சூப்பர்இன்டெலிஜன்ஸ் AI மனிதனின் கட்டுப்பாட்டை விட்டுவிட்டு மனித இனத்தை அபாயப்படுத்தக்கூடும் என கணிக்கிறார். அவரால் “கம்பெட்டன் நிலைத்தரம்” எனும், அவைதிடமான அபாய அளவுகோல், செயல்படுத்தப்பட்டது, இது ஓர்க்கோடான AI அபாயங்களை அறிவிப்பதற்கும், அரசியல் முடிவுகளை மேற்கொள்ளும் பேரிடரான safety ஒப்பந்தங்களை செயல்படுத்தும் நோக்கமாக உள்ளது. இந்த முயற்சி 2023 ஆம் ஆண்டு வேலை செய்யும் Life Instituteஇன் திறந்த கடிதத்துடன் ஒத்துழைக்கும், இதில் Elon Musk மற்றும் Steve Wozniak உட்பட 33,000க்கும் மேற்பட்ட நபர்கள் உள்பட பலரும், ஒழுங்குமற்ற AI போட்டிக்கு எதிராக எச்சரிக்கை விடுத்துள்ளனர். டெக்மார்ட் சிங்கப்பூர் பங்கிற்கு ஆதரவளித்தார், உலகம் முழுவதும் முக்கியமான பாதுகாப்பு ஆராய்ச்சி முன்னுரிமைகள் குறித்து சேர்ந்து பணியாற்ற வேண்டியதற்காக. சில அமெரிக்க அதிகாரிகளிடம் இருந்து சனிச்சேதப் பார்வைகளும் இருந்தாலும், உலகளாவிய ஒத்துழைப்பு மற்றும் நம்பிக்கை பாதுகாப்பான AI வளர்ச்சிக்கு மனபூர்வமான முறையில் நிலவுகின்றன.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 12, 2025, 1:09 a.m.

பிளாக்செயின் சுற்றுச்சூழல் விளைவுகள்: புதுமை மற்றும் நிலை…

பிளாக்செயின் தொழில்நுட்பம் விரைந்து முன்னேறுவதால், அதன் சுற்றுச்சூழல் பாதிப்பு உலகளாவிய கவலைகளாக மாறியுள்ளது.

May 12, 2025, 1:07 a.m.

ஐந்தuhan வயதான பிள்ளைகளுக்குப் போதும், குழந்தைகளுக்கான ச…

ஐக்கிய அரபு அமீரகები (UAE) குழந்தைகளுக்கான கல்வியில் முன்னேற்றத்தை மேற்கொண்டுள்ளது, மாநில பள்ளிகளில் ஆரம்ப வயதிலிருந்தே செயற்கை நுண்ணுணர்வு (AI) பாடத்திட்டத்தை அறிமுகப்படுத்தியுள்ளது.

May 11, 2025, 11:44 p.m.

ஆம், ஏஐ திட்டமான சில பணியாளர்களை மாற்றும். ஆனால் அந்த நா…

பல தொழில்முறைநிறுவன உரிமையாளர்களைப் போல், நான் கண்டிப்பாக செயற்கை நுண்ணறிவு (AI) அடிப்படையில் ஆர்வமாக உள்ளேன், சமீபத்தில் ChatGPT-க்கு தொழில்துறைத்தலைவர்களிடமிருந்து AI இற்றைப்படுத்தல் முக்கியத்துவம் பற்றி மேற்கோள்கள் கேட்கப்பட்டது.

May 11, 2025, 11:35 p.m.

பிட்ட്കாயின் கேஷ் வலைபின்னல் மே 15, 2025 இல் திட்டமிடப்பட்ட…

பிட்கOIN் காஷ் நெட்வொர்க் மே 15, 2025 ஆம் தேதி முக்கிய புதுப்பிப்பை மேற்கொள்ள உள்ளது, அதில் திறனையும் அளவிலும் உயர்வை ஏற்படுத்த புதிய ஒப்பந்த விதிகள் அறிமுகப்படுத்தப்பட உள்ளது, விரைந்த மற்றும் நம்பத்தகுந்த இடமாற்றிய PROCESSகளின் சவால்களை எதிர்கொள்ளும் வகையில்.

May 11, 2025, 10:16 p.m.

சிலிக்கனில் இருந்து sentience வரை: AI-யின் அடுத்த எல்லை…

மனிதர்கள் எப்போதும் இடமாற்றம் செய்துள்ளனர்—ஆக உலகளாவிய இடைவெளிகளை மட்டுமல்ல, வேலை மற்றும் எண்ணங்களின் பரிமாற்றங்களையும்.

May 11, 2025, 10:09 p.m.

அரசு சேவைகளில் பிளாக்செயின் ஏற்றுதல்: உலகளாவிய பரிசீலனை

உலகம் முழுவதும் அரசுக்கள் பொதுவான சேவைகளை மேம்படுத்தும் பொருட்டு மாற்றும் கருவியான பிளாக்செயின் தொழில்நுட்பத்தை அதிகமாகப் பயன்படுத்தி வருகின்றன.

May 11, 2025, 8:47 p.m.

பாபா லே Awesome XIV பரிசுத்த ஆட்சி பற்றிய பார்வையை வி…

போப் லியோ XIV தингிப்போது மனிதகுலத்திற்கு முக்கிய சவாலாக உள்ள कृ#############################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################################யற்கை நுண்ணறிவை (AI)ப் பற்றி விளக்கி, பாப்பைத் தலைமைத்துவத்தின் முன்னுரிமைகளைத் தாங்கிப்பள்ளியிருந்தார்.

All news