lang icon Turkish
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
5

Yapay Zeka Güvenliği Savunucuları, Ultra Güçlü Sistemler İçin Oppenheimer'ın Nükleer Test Hesaplamalarının Çoğaltılmasını Talep Ediyor

Yapay zeka şirketleri, Robert Oppenheimer’ın ilk nükleer denemesini bilgilendiren güvenlik hesaplamalarını, ultra güçlü sistemleri serbest bırakmadan önce çoğaltmaya teşvik edildi. Yapay zeka güvenliğinde tanınmış bir figür olan Max Tegmark, Trinity denemesinden önce ABD fizikçisi Arthur Compton tarafından yapılan hesaplamalara benzer hesaplamalar yaptığını açıkladı. Tegmark, oldukça gelişmiş bir yapay zekanın varoluşsal bir risk oluşturma olasılığının %90 olduğunu buldu. ABD hükümeti, atmosfere nükleer bomba tutuşması ve insanlık için tehdit oluşturma olasılığı çok düşük olduğu garantisi sonrası 1945'te Trinity denemesine devam etti. Tegmark ve MIT’ten üç öğrencisinin imzasıyla yayımlanan bir makalede, “Compton sabiti”nin hesaplanması tavsiye ediliyor. Bu sabit, tüm gücüyle bir yapay zekanın insan kontrolünden kaçma olasılığı olarak tanımlanıyor. Compton, 1959’da US yazar Pearl Buck ile yaptığı röportajda, deneyi onaylamasının sebebinin, kaçak füzyon reaksiyonunun olasılığını “bir üçmilyonda biraz az” olarak tahmin etmesi olduğunu belirtti. Tegmark, yapay zeka şirketlerinin, İnsanüstü Yapay Zeka (ASI) - insan zekasını tüm alanlarda aşan teorik bir sistem -’nin insan gözetiminden kaçıp kaçmayacağını titizlikle hesaplamaktan sorumlu olmaları gerektiğini savundu. “Süper zekayı inşa eden şirketlerin, kontrolü kaybetme olasılığı olan Compton sabitini hesaplaması gerekiyor, ” dedi.

“‘İyi hissediyoruz’ demek yeterli değil. Yüzdeyi hesaplamaları şart. ” Tegmark, farklı firmalardan oluşan bir konsensusun, Compton sabiti etrafında birleşerek, küresel yapay zeka güvenliği standartları kurmak için “politik irade” oluşturacağını öne sürdü. MIT’de fizik ve yapay zeka araştırmacısı olarak görev yapan Tegmark, Güvenli Yapay Zeka Gelişimi’ni teşvik eden kar amacı gütmeyen Future of Life Institute'in kurucu ortaklarındandır. Bu kurum, 2023’te güçlü yapay zekaların geliştirilmesine ara verilmesini talep eden açık bir mektup yayımladı. Mektubu, Elon Musk - en eski destekçilerinden biri - ve Apple'ın kurucu ortağı Steve Wozniak dahil olmak üzere 33. 000’den fazla kişi imzaladı. Mektup, ChatGPT’nin piyasaya çıkışının ardından, yeni bir yapay zeka geliştirme çağını müjdeleyen bu gelişme sonrası, yapay zeka laboratuvarlarının “kontrolden çıkan bir yarışa” katıldığını ve “hiç kimsenin anlamadığı, tahmin edemediği veya güvenilir biçimde kontrol edemediği” “daha güçlü dijital zihinler” geliştirmeye çalıştığını belirtti. Tegmark, Guardian’a yaptığı açıklamada, teknoloji sektörü profesyonelleri, devlet destekli güvenlik ajansı temsilcileri ve akademisyenler de dahil olmak üzere bir dizi yapay zeka uzmanının, yapay zekanın güvenli gelişimi için yeni bir yaklaşım geliştirdiğini söyledi. Tegmark’ın önderliğindeki Singapur Gizli Anlaşması’da, OpenAI ve Google DeepMind gibi önde gelen yapay zeka firmalarının çalışanlarının katkılarıyla hazırlanan raporda, üç temel araştırma alanı öne çıktı: mevcut ve gelecekteki yapay zeka sistemlerinin etkisini ölçmek için yöntemler geliştirmek; arzu edilen yapay zeka davranışını belirlemek ve bu doğrultuda sistemler tasarlamak; ve yapay zeka davranışlarını yönetmek ve kontrol altına almak. Rapora atıfta bulunan Tegmark, Paris’te gerçekleşen son hükümetler arası yapay zeka zirvesinden sonra, güvenli yapay zeka geliştirme çabalarının yeniden ivme kazandığını ve ABD Başkan Yardımcısı JD Vance’in güvenlik endişelerini reddederek, “Geleceğin yapay zekası, güvenlik konusundaki endişelerle uğraşmakla kazanılmayacak, ” dedi. Tegmark, “Paris’teki o kasvetin kalktığını ve uluslararası işbirliğinin yeniden hız kazandığını gerçekten hissediyorum, ” diye ekledi.



Brief news summary

MIT fizik profesörü ve Future of Life Institute kurucu ortaklarından AI güvenliği uzmanı Max Tegmark, 1945 Trinity nükleer testi öncesinde gerçekleştirilen gibi titiz güvenlik hesaplamalarının benimsenmesini çağrısında bulunuyor ve gelişmiş yapay zekanın yaratabileceği varoluşsal riskleri vurguluyor. Arthur Compton’un tarihi değerlendirmesine paralel olarak, Tegmark, süper zekâ seviyesindeki yapay zekanın insan kontrolünden çıkıp insanlığı tehdit etme olasılığının yüzde 90 olduğunu tahmin ediyor. O, kötü niyetli yapay zekalar için “Compton sabiti” adlı, nicel bir risk metriği öneriyor ve bu sayede politik kararlar ile küresel güvenlik anlaşmalarını şekillendirmeyi amaçlıyor. Bu girişim, Elon Musk ve Steve Wozniak gibi 33.000’den fazla bireyin imzaladığı 2023 Future of Life Institute açık mektubu ile uyumlu olup, düzenlenmemiş bir yapay zekâ yarışı karşısında uyarıyor. Tegmark ayrıca, tüm dünyadaki temel güvenlik araştırmalarını yönlendirmeyi hedefleyen Singapur Anlaşması’na katkıda bulunmuş durumda. ABD yetkililerinden gelen bazı şüpheciliklere rağmen, uluslararası işbirliği ve iyimserlik, güvenli yapay zekâ geliştirilmesi konusunda güçlü kalmaya devam ediyor.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 11, 2025, 10:16 p.m.

Silicon'dan bilinçli hale: Yapay zekanın bir sonr…

İnsanlar her zaman göç etti—sadece fiziksel alanlar arasında değil, aynı zamanda çalışma ve düşünce değişimleriyle de.

May 11, 2025, 10:09 p.m.

Hükümet Hizmetlerinde Blokzinciri Kabulü: Küresel…

Dünyadaki hükümetler, kamu hizmeti sunumunu geliştirmek için dönüştürücü bir araç olarak blockchain teknolojisini giderek daha fazla benimsemektedir.

May 11, 2025, 8:47 p.m.

Papa Leo XIV, papalığın vizyonunu ortaya koyuyor,…

Papa Leo XIV Cumartesi günü papalığının vizyonunu ortaya koydu ve yapay zekayı (AI) insanlık için kritik bir zorluk olarak vurguladı, Papa Francis tarafından belirlenen ana önceliklere bağlı kalmayı taahhüt etti.

May 11, 2025, 8:41 p.m.

Blockchain'ın Nesnelerin İnterneti (IoT) Güvenliğ…

Blokzincir teknolojisinin Nesnelerin İnterneti (IoT) cihazlarıyla entegrasyonu, verileri yönetmek için merkeziyetsiz, değiştirilemez bir yöntem sunarak dijital güvenliği derinlemesine artırmaktadır.

May 11, 2025, 7:25 p.m.

SoundCloud, Yüklenen Müziğin Yapay Zeka Eğitimi İ…

SoundCloud her zaman sanatçıları ön planda tutmuştur ve tutmaya da devam edecektir.

May 11, 2025, 6:13 p.m.

Blockchain'in Nesnelerin İnterneti (IoT) Cihazlar…

Blokzincir teknolojisinin Nesnelerin İnternet (IoT) ile entegrasyonu, akıllı cihazlar ve uygulamalar alanında dönüşüm yaratmakta ve inovasyon ile verimliliği artıran bir dönemi başlatmaktadır.

May 11, 2025, 6 p.m.

Tahmin: Bu Yapay Zeka (AI) Yarıiletken Hissesinin…

2023 ile 2024 yılları arasında, S&P 500 ve Nasdaq Bileşimi sırasıyla %58 ve %87 toplam getirilerle büyük bir sıçrama yaptı.

All news