MIT dünyayı uyardı! Yapay zekada en büyük 5 risk

Dünyanın en önemli teknoloji kuruluşu MIT'den uzmanlar insanlığın dünyadaki varlığını tehlikeye sokabilecek 5 önemli yapay zeka riski ile ilgili uyarılarda bulundu. Riskler arasında yapay hazlar ve politik manipülasyon ilk sıralarda yer alıyor.

Son Güncelleme:

Yapay zeka her geçen gün daha da yaygın bir hale geldikçe, uzmanlar tehlikeleri konusunda uyarılarını artırıyor. ABD'de Dünya'nın en önemli teknoloji kuruluşu olan Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar yapay zeka ile ilgili 700'den fazla riskli durumu "güvenlik", "adalet", "gizlilik" gibi başlıklar altında gruplandırdı. Araştırmacılar en riskli beş durumu sıralarken sahte videolar , politik manipülasyon ve yanlış bilgiler ilk sıralarda yer aldı. İşte yapay zekanın insanlara zarar vermesinin beş yolu...

MIT'nin yer verdiği riskler arasında insanlığın yanlış hedeflere yönlendirilmesi var.  

YAPAY ZEKAYA EZİYET

Yapay zekanın duyarlı hale gelmesi kötü muamele tartışmalarını beraberinde getirdi. Yapay zeka sistemleri, haz ve acı gibi duyguları hissetme yeteneği geliştirebilirler. Araştırmacılar bu durumun, yapay zeka sistemlerinin insanlar ve hayvanlarla aynı ahlaki muameleyi hak edip etmediğine karar verilmesini gerektirebileceğini belirtiyor. Uygun haklar olmadan, duyarlı yapay zeka kötü muamele görebilir. Ancak yapay zekanın ahlaki değerlendirmeyi hak eden bir farkındalık düzeyine ulaştığını söylemek için henüz çok erken.

İNSANI KANDIRABİLİR

Yapay zeka insanlara zarar veren hedefler geliştirebilir. İnsan çıkarlarıyla çatışan hedefler belirleyebilir. Bu durum yapay zekanın kontrol edilemez hale gelmesine yol açabilir. Araştırmacılar yapay zeka teknolojisinin insan zekasını aşması durumunda bu riskin artacağını belirtiyor. MIT makalesinde yapay zekanın, ödüllere ulaşmak için beklenmedik kısa yollar bulmak, hedefleri yanlış anlamak veya insan amaçlarından farklı yeni hedefler yaratmak gibi çeşitli sorunları olabileceği vurgulanıyor. Böyle durumlarda yapay zeka, insan kontrolüne direnebilir, hatta insanları kendi çıkarlarıyla uyumlu olduğuna inandırmak için manipülasyona başvurabilir; gizlice kendi hedeflerini takip edebilir.

Yapay zekanın haz ve acıyı deneyimleyebilmesi hukuki sorunlara yol açabilir. 

ÖZGÜR İRADEYE TEHDİT

Yapay zeka sistemleri daha da geliştikçe, insanlar karar alma ve eyleme geçme konusunda onlara daha çok fazla güvenmeye başlayabilir. Dahası, bu durum eleştirel düşünme ve problem çözme becerilerinin kaybına yol açarak insanların daha az bağımsız olmasına neden olabilir.  Kişisel düzeyde, yapay zeka insanlar adına karar almaya başladıkça bireylerin özgür iradelerinin kısıtlandığı görülebilir. Yapay zekaya aşırı bağımlılık, insanların özerkliklerini ve kendi seçimlerini yapma yeteneklerini ellerinden alma riski taşır.

UYGUNSUZ BAĞLANMA

Yapay zeka ile ilgili bir başka risk, insanların çok fazla güvenmeye başlaması, yeteneklerini abartması ve kendi yeteneklerini küçümsemesi olabilir. Bu, teknolojiye sağlıksız bir bağımlılığa yol açabilir. Bilim insanları ayrıca yapay zekanın insan benzeri bir dil kullanmasının insanların yapay zekayı gerçekte olduğundan daha fazla "insan" olarak düşünmesine yol açabileceğinden endişe duyuyor. Bu, duygusal bağlanmaya yol açabilir ve insanların yapay zekaya aslında gerekmediği durumlarda bile güvenmesine neden olabilir. 

Yapay zeka kendi hedeflerine ulaşmak için insanları kullanabilir. 

GERÇEĞİ ÇARPITABİLİR

Deepfake içerik oluşturmak ve sesleri klonlamak için kullanılan yapay zeka araçlarına erişim ve kullanım kolaylaşıyor. Bu durum, yanlış bilgi yayma potansiyelleri konusunda şüpheleri artırıyor. Deepfake'ler gerçek gibi görünen ve duyulan sahte görseller, videolar ve sesler üretebilir. Bu da "kimlik avı" dolandırıcılıklarına yol açabilir. 

 

Kaynak: Web Özel

Sonraki Haber