Dolar 32,5885
Euro 34,7950
Altın 2.509,96
BİST 9.693,46
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun 20°C
Az Bulutlu
Samsun
20°C
Az Bulutlu
Cts 18°C
Paz 21°C
Pts 19°C
Sal 30°C

Üst Düzey Yapay Zekâ Araştırmacısı “Dünyadaki herkes ölecek” Uyarısında Bulundu

Üst Düzey Yapay Zekâ Araştırmacısı “Dünyadaki herkes ölecek” Uyarısında Bulundu
1 Nisan 2023 21:53
424

Yüksek profilli bir yapay zekâ araştırmacısı, dünya genelinde gelişmiş yapay zekâ sistemlerinin gelişimini durdurmak ve moratoryumu ihlal edenleri sert bir şekilde cezalandırmak, insanlığı yok olmaktan kurtarmanın tek yolu olduğu konusunda uyardı.


4qgdqs0lod4856jrsuq4almqfk Life Haber Ajansı

İnsanlık çok daha akıllı bir yapay zekâ ile karşılaşmadan hayatta kalmaya hazır değil…” — Eliezer Yudkowsky


Makine İstihbarat Araştırma Enstitüsü’nün kurucu ortaklarından Eliezer Yudkowsky, OpenAI tarafından bu ayın başlarında piyasaya sürülen çok modlu bir büyük dil modeli olan GPT-4’ten daha güçlü AI sistemlerinin eğitimini hedef alarak. Çarşamba günü TIME dergisi için bir köşe yazısı yazdı ve “tüm yapay zekâ laboratuvarlarının en az altı kez derhal durması” çağrısında bulunan dilekçeleri neden imzalamadığını açıkladı.

Yudkowsky, Elon Musk ve Apple’dan Steve Wozniak gibi kişiler tarafından imzalanan mektubun, yapay zekanın hızlı ve kontrolsüz gelişiminin ortaya çıkardığı sorunu “çözmek için çok az şey istediğini” savundu.

Yudkowsky, “Mevcut koşullara uzaktan benzer herhangi bir durumda, insanüstü derecede akıllı bir yapay zeka oluşturmanın en olası sonucu, kelimenin tam anlamıyla Dünya’daki herkesin öleceğidir.” diye yazdı.

“Bizi veya genel olarak duyarlı yaşamı umursamayan” bir bilgisayar sistemiyle karşılaşmaktan sağ çıkmanın, insanlığın şu anda sahip olmadığı ve yakın gelecekte elde etmesi pek olası olmayan “kesinlik, hazırlık ve yeni bilimsel içgörüler” gerektireceğini savundu.

Yudkowsky, “Yeterince zeki bir yapay zekâ, uzun süre bilgisayarlarla sınırlı kalmayacak” uyarısında bulundu. Protein üretmek için DNA dizilerini laboratuvarlara e-postayla göndermenin zaten mümkün olduğu gerçeğinin, AI’nın “yapay yaşam formları oluşturmasına veya doğrudan post biyolojik moleküler üretime önyükleme yapmasına” ve dünyaya çıkmasına muhtemelen izin vereceğini açıkladı.

Araştırmacıya göre, yeni büyük AI eğitim çalışmaları için süresiz ve dünya çapında bir moratoryum derhal başlatılmalıdır. “Hükümetler veya ordular da dahil olmak üzere hiçbir istisna olamaz” diye vurguladı.

Yudkowsky, herhangi birinin bu tür sistemleri eğitirken ne kadar bilgi işlem gücü kullanabileceğine bir tavan koymak için uluslararası anlaşmaların imzalanması gerektiğinde ısrar etti.

“İstihbarat, anlaşmanın dışında kalan bir ülkenin bir GPU (grafik işleme birimi) kümesi oluşturduğunu söylerse, ülkeler arasında silahlı çatışma çıkmasındansa moratoryumun ihlal edilmesinden daha az korkun; haydut bir veri merkezini hava saldırısıyla yok etmeye istekli olun” diye yazdı.

Yapay zekâ tehdidi o kadar büyük ki, “yapay zekanın yok olma senaryolarının önlenmesinin, tam bir nükleer değişimi önlemekten daha öncelikli olduğu uluslararası diplomaside açıkça ifade edilmelidir” diye ekledi.

YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.