Yapay Zeka (AI) tehlikeli mi?

22 Mayıs 2023 Pazartesi günü, “Bloomberg Feed” adlı doğrulanmış bir Twitter hesabı, bir tweet'i paylaştı.Pentagon'da patlama, bir görüntü eşliğinde. Bunun yapay zeka (AI) ile ne ilgisi olduğunu merak ediyorsanız, görüntü AI tarafından üretilen bir şeydi, tweet hızla viral gidiyor ve kısa bir borsa daldırma yoluna çıkıyor. İşler çok daha kötü olabilirdi - yapay zekanın tehlikelerini açık bir hatırlatma.

Yapay zeka tehlikeleri

Endişelenmemiz gereken sahte haberler değil. Gizlilik ve güvenlik ile ilgili olanlardan önyargı ve telif hakkı sorunlarına kadar AI ile ilişkili birçok acil veya potansiyel risk vardır. Bu yapay zeka tehlikelerinden bazılarına dalacağız, şimdi ve gelecekte onları azaltmak için neler yapıldığını göreceğiz ve AI risklerinin faydalardan daha ağır basıp basmadığını soracağız.

İçindekiler

Sahte Haberler

Deepfakes ilk indiğinde, endişeler kötü niyetle kullanılabilecekleri ortaya çıktı. Aynı şey Dall-E 2, Midjourney veya Dreamstudio gibi yeni AI görüntü jeneratörleri için de söylenebilir. 28 Mart 2023'te sahtePapa Francis'in AI tarafından oluşturulan görüntüleriBeyaz Balenciaga Puffer ceketinde ve kaykay ve poker oynamak da dahil olmak üzere çeşitli maceraların tadını çıkarmak viral oldu. Görüntüleri yakından incelemedikçe, bu görüntüleri gerçek şeyden ayırmak zordu.

Papa ile örnek şüphesiz biraz eğlenceli olsa da, Pentagon hakkındaki görüntü (ve eşlik eden tweet) başka bir şey değildi. AI tarafından üretilen sahte görüntüler, itibarlara zarar verme, son evlilikler veya kariyerler yapma, siyasi huzursuzluk yaratma ve hatta yanlış insanlar tarafından kullanıldığında savaşlara başlama gücüne sahiptir-kısacası, bu AI tarafından üretilen görüntüler yanlış kullanılırsa büyük ölçüde tehlikeli olma potansiyeline sahiptir.

AI görüntü jeneratörleri artık herkesin kullanması için serbestçe kullanılabilir vePhotoshop AI görüntü oluşturucu ekleyerekPopüler yazılımına göre, görüntüleri manipüle etme ve sahte haberler yaratma fırsatı her zamankinden daha büyük.

Gizlilik, güvenlik ve hackleme

Gizlilik ve güvenlik, AI riskleri söz konusu olduğunda da büyük endişelerdir ve bazı ülke zaten Openai'nin chatgpt'ini yasaklamaktadır. İtalya, Avrupa Genel Veri Koruma Yönetmeliği'ne (GDPR) uymadığına inanan gizlilik endişeleri nedeniyle modeli yasakladı, Çin, Kuzey Kore ve Rusya hükümetleri yanlış bilgilendirme korkusu nedeniyle yasakladı.

Öyleyse AI söz konusu olduğunda neden gizlilik konusunda endişeliyiz? AI uygulamaları ve sistemleri öğrenmek ve tahmin yapmak için büyük miktarda veri toplar. Ancak bu veriler nasıl depolanır ve işlenir? Gerçek bir veri ihlali, hack ve yanlış ellere düşen bilgiler riski vardır.

Sadece risk altında olan sadece kişisel verilerimiz değil. AI hackleme gerçek bir risktir - henüz olmadı, ancak kötü niyetli niyeti olanlar AI sistemlerine girebilirlerse, bunun ciddi sonuçları olabilir. Örneğin, bilgisayar korsanları sürücüsüz araçları kontrol edebilir, AI güvenlik sistemlerini son derece güvenli yerlere giriş kazanmak için hackleyebilir ve hatta AI güvenliğine sahip silah sistemlerini hackleyebilir.

ABD Savunma Bakanlığı'nın Savunma İleri Araştırma Projeleri Ajansı (DARPA) uzmanları bu riskleri tanımaktadır ve zaten DARPA'nın aldatmacaya karşı sağlamlık (Gard) projesi üzerinde çalışıyorlar ve sorunu baştan yukarıda ele alıyorlar. Projenin amacı, hackleme ve kurcalamaya karşı direncin algoritmalar ve yapay zeka içine yerleştirilmesini sağlamaktır.

Telif hakkı ihlali

Devamını oku:Yapay zeka insan-hayvan iletişiminde boşlukları köprüler

Yapay zekanın tehlikelerinden bir diğeri telif hakkı ihlalidir. Bu, bahsettiğimiz diğer bazı tehlikeler kadar ciddi gelmeyebilir, ancak GPT-4 gibi AI modellerinin gelişimi herkesi artan ihlal riskine sokar.

Chatgpt'ten her bir şey oluşturmasını istediğinizde - bu seyahatte bir blog yazısı ister işletmeniz için yeni bir isim olsun - gelecekteki sorguları cevaplamak için kullandığı bilgileri besliyorsunuz. Size geri beslediği bilgiler başkasının telif hakkını ihlal ediyor olabilir, bu yüzden bir intihal dedektörü kullanmak ve yayınlamadan önce AI tarafından oluşturulan herhangi bir içeriği düzenlemek çok önemlidir.

Toplumsal ve veri yanlılığı

AI insan değil, bu yüzden önyargılı olamaz, değil mi? Yanlış. İnsanlar ve veriler AI modellerini ve sohbet botlarını eğitmek için kullanılır, bu da önyargılı veri veya kişiliklerin önyargılı bir AI ile sonuçlanacağı anlamına gelir. Yapay zekada iki tür önyargı vardır: toplumsal önyargı ve veri yanlılığı.

Günlük toplumda birçok önyargı ile, bu önyargılar AI'nın bir parçası olduğunda ne olur? Modelin eğitilmesinden sorumlu programcıların önyargılı beklentileri olabilir, bu da AI sistemlerine girer.

Veya bir yapay zeka eğitmek ve geliştirmek için kullanılan veriler yanlış, önyargılı veya kötü niyetle toplanabilir. Bu, toplumsal önyargı kadar tehlikeli olabilecek veri yanlılığına yol açar. Örneğin, yüz tanıma için bir sistem esas olarak beyaz insanların yüzleri kullanılarak eğitilirse, azınlık gruplarından olanları tanımak, baskıyı sürdürerek mücadele edebilir.

Robotlar İşimizi Alıyor

Chatgpt ve Google Bard gibi chatbotların geliştirilmesi, AI'yı çevreleyen yepyeni bir endişe açtı: robotların işlerimizi alma riski. Zaten teknoloji endüstrisindeki yazarların yerini AI, yazılım geliştiricilerinin işlerini botlara kaybedeceklerinden endişe duyduğunu ve insan yazarlarını işe almak yerine blog içeriği ve sosyal medya içeriği oluşturmak için ChatGPT kullanan şirketler görüyoruz.

Buna göreDünya Ekonomik Forumu İşlerin Geleceği Raporu 2020, AI'nın 2025 yılına kadar dünya çapında 85 milyon işin yerini alması bekleniyor. AI yazarların yerini almasa bile, zaten birçok kişi tarafından bir araç olarak kullanılıyor. AI ile değiştirilme riski taşıyan işlerin hayatta kalmak için uyum sağlaması gerekebilir - örneğin, yazarlar AI hızlı mühendisler olabilir ve bu modellerle değiştirilmek yerine içerik oluşturma için chatgpt gibi araçlarla çalışmalarını sağlar.

Gelecekteki potansiyel yapay zeka riskleri

Bunların hepsi acil veya yaklaşan riskler, ama gelecekte görebildiğimiz AI'nın daha az olası ama yine de olası tehlikeleri ne olacak? Bunlar, AI gibi şeyleri insanlara zarar vermek için programlanmış gibi, örneğin bir savaş sırasında öldürmek için eğitilmiş otonom silahlar içerir.

Daha sonra AI'nin programlanmış hedefine tek bir şekilde odaklanma riski var, insanlar bunun olmasını engellemeye çalışsa bile, bu hedefe ulaşmaya çalışırken yıkıcı davranışlar geliştiriyor.

Skynet bize bir AI duyarlı hale geldiğinde ne olacağını öğretti. Ancak Google Mühendisi Blake Lemoine, herkesi bu şekilde ikna etmeye çalışmış olabilir.Lamda, Google'ın yapay olarak akıllı chatbot jeneratörü canlıydıHaziran 2022'de, bunun doğru olduğunu öne sürecek hiçbir kanıt yok.

AI düzenlemesinin zorlukları

15 Mayıs 202 Pazartesi,Openai CEO'su Sam Altman, yapay zeka hakkındaki ilk kongre duruşmasına katıldı, “Bu teknoloji yanlış giderse, oldukça yanlış olabilir.” Openai Co, düzenlemeyi desteklediğini ve kendi fikirlerinin çoğunu duruşmaya getirdiğini açıkça belirtti. Sorun şu ki AI bu hızda gelişiyor, düzenlemeyle nereden başlayacağınızı bilmek zor.

Kongre, sosyal medya döneminin başında yapılan aynı hataları yapmaktan kaçınmak istiyor ve Senato Çoğunluk Lideri Chuck Schumer ile birlikte bir uzman ekibi, şirketlerin modelleri eğitmek için kullandıklarını ve bunları eğiten veri kaynaklarını açığa çıkarmasını gerektirecek düzenlemeler üzerinde çalışıyor. Bununla birlikte, AI'nın tam olarak nasıl düzenleneceği netleşmeden önce biraz zaman alabilir ve şüphesiz AI şirketlerinden geri tepme olacaktır.

Yapay bir genel zekanın tehdidi

Ayrıca, bir insanın (veya hayvanın) gerçekleştirebileceği herhangi bir görevi yerine getirebilecek yapay bir genel zeka (AGI) yaratma riski de vardır. Sci-Fi filmlerinde sıklıkla bahsedilen, muhtemelen böyle bir yaratımdan hala onlarca yıl uzaktayız, ancak bir AGI yaratırsak ve ne zaman insanlık için bir tehdit oluşturabilir.

Birçok kamu figürü, AI'nın Stephen Hawking, Bill Gates ve hatta eski Google CEO'su Eric Schmidt dahil olmak üzere insanlar için varoluşsal bir tehdit oluşturduğu inancını, “yapay zeka varoluşsal riskler oluşturabilir ve hükümetlerin teknolojinin kötü insanlar tarafından nasıl kötüye kullanılmadığından emin olmayacağını bilmesi gerekir” dedi.

Peki, yapay zeka tehlikeli mi ve riski yararlarından daha ağır basıyor mu? Jüri hala bu konuda, ama şu anda çevremizdeki bazı risklerin kanıtlarını zaten görüyoruz. Diğer tehlikelerin yakın zamanda gerçekleşmesi daha az olasıdır. Yine de bir şey açıktır: AI'nın tehlikeleri hafife alınmamalıdır. Yapay zekanın başından itibaren düzgün bir şekilde düzenlenmesini, gelecekteki riskleri en aza indirmek ve umarım azaltmak için çok önemlidir.