Ayrımcılık yapan yapay zeka bazen tehlikeye yol açabiliyor

Sağlık, hukuk ve ulaşımdaki hataların sonuçları ciddi olabiliyor… 

Günümüzde kullanımı gittikçe artan yapay zekaların hatalı kararları bazen tehlikelere yol açabiliyor. Yapay zekanın da hata yapabileceğini belirten uzmanlar, özellikle sağlık, hukuk, savunma ve ulaşım gibi alanlarda yapay zeka hatalarının ciddi sonuçlar doğurabileceğine dikkat çekiyor. Uzmanlar, yapay zekanın bazı uygulama alanlarında ayrımcı ve önyargılı davranabildiğine de söylerken, yapay zeka sistemlerine girilen verilerin doğru, tutarlı ve tarafsız olması gerektiğinin altını çiziyor.

Üsküdar Üniversitesi Mühendislik ve Doğa Bilimleri Fakültesi Yazılım Mühendisliği Bölüm Başkan Yardımcısı Dr. Öğretim Üyesi Kristin Surpuhi Benli, yapay zekaların hatalı uygulamaları hakkında bilgiler ve ilgi çekici örnekler paylaştı.

 

İlk vaka 2018’de gerçekleşti

 

Yapay zekanın verdiği hatalı kararların bazen tehlikelere yol açabildiğini belirten Dr. Öğretim Üyesi Kristin Surpuhi Benli, “Örneğin, 2018 yılında Uber’in sürücüsüz otomobili yanında güvenlik sürücüsü bir insan olmasına rağmen bir bisiklet sürücüsüne çarpmış ve bu kaza ölümle sonuçlanmıştı. Bu olay otonom arabanın ölüme sebebiyet verdiği kaydedilen ilk vakadır. Bu kaza sonrasında yayınlanan raporda yapay zekanın bisikletli sürücüyü çarpışmaya çok kısa bir süre kala algıladığı görüldü. Öncesinde ise, onu farklı ve yanlış nesneler ile eşleştirmiş. Bisikletli sürücü algılandıktan sonra da tehlikeli durumlarda devreye girmesi gereken otomatik fren sisteminin kapalı olması nedeniyle aracın durdurulamadığı belirtildi.” dedi.

 

İyileştirme çalışmaları yapılmalı

 

Yapay zekanın da hata yapabildiğini ifade eden Dr. Öğretim Üyesi Benli, “Yapmış olduğu hatalar da otonom araç örneğinde olduğu gibi telafisi mümkün olmayan sonuçlar doğurabilir. Bu olay gibi yapay zekanın yapmış olduğu bir başka ciddi hata ise yapay zeka tabanlı yüz tanıma sistemi tarafından gerçekleştirildi. Bir hırsızlık olayında suçlunun bulunması için kullanılan sistem masum olan bir kişinin, hatalı yüz eşleştirme işlemi sonucunda tutuklanmasına sebebiyet verdi. Tutuklanan kişinin koyu ten renge sahip olmasının sistemde hataya yol açtığı düşünülüyor. Yüz tanıma sistemleri ile ilgili yapılan araştırmalarda da bu sistemlerin koyu cilt tonuna sahip insanları açık cilt tonuna sahip olanlara göre daha sık yanlış tanıdığını gösteriyor. Bu örnekte de görüldüğü gibi bu sistemler üzerinde iyileştirme çalışmalarının yapılması gerekiyor.” diye konuştu.

 

Hatalardan kimin sorumlu tutulacağı önemli

 

Dr. Öğretim Üyesi Kristin Surpuhi Benli, ‘Özellikle sağlık, hukuk, savunma ve ulaşım gibi alanlarda yapay zekanın yapmış olduğu hataların sonuçları büyük olacaktır.’ dedi ve sözlerini şöyle sürdürdü: 

 

“Risklerin daha düşük olduğu alanlarda örneğin yapay zeka kamerası aracılığıyla izlenilen bir futbol maçında kameranın asıl görevi futbol topunu takip etmek iken, top ile kel olan hakemin kafasını karıştırdığında atılan golü izleyememek izleyicinin kaybı olacaktır. Bu örnek ile önceki örnekleri kıyaslandığımızda risklerin ve hataların daha telafi edilebilir düzeyde olduğunu söyleyebiliriz. Yapay zeka tarafından yapılan hatalardan kimin sorumlu tutulacağı ise düşünülmesi gereken başka bir önemli konudur. Otonom aracın yapmış olduğu trafik kazasında yapılan kazanın sorumluluğunun kime ait olduğu konusunda farklı görüşler ortaya çıktı. Burada öncelikle yapay zekanın hukuki statüsünün konunun uzmanları tarafından tartışılması gerekiyor. İlerleyen zamanlarda ise hukuksal düzenlemelerin yapılması ihtiyacı doğacaktır.”

 

Yapay zeka ayrımcılık yapıyor

 

Yapay zeka tabanlı sistemlerin finans kuruluşlarında müşterilerin kredi limitlerinin belirlenmesi için kullanıldığını ifade eden Dr. Öğretim Üyesi Benli, “Aynı gelir düzeyine sahip kadın ve erkek müşteriler arasından sistemlerin erkek müşterilere daha yüksek miktarda kredi limiti verdiğini gösteren örnekler mevcut. Başka bir durum ise Amazon firmasının işe alımlar sırasında adaylar arasında eleme yapmak için kullandığı işe alım motoru ile ilgili yaşandı. İşe alım motorunun kadın ve erkek adaylar arasında ayrımcılık yaptığı ve iş pozisyonları için daha çok erkek adayları tercih ettiği görüldü. Son iki örnek ile yapay zeka sistemlerinin içerisinde gömülü olan bir önyargının olduğu görülüyor.” diye konuştu.

 

Tehlikelere yol açabileceği bilinmeli

 

Yapay zeka insanların hayat kalitelerini arttırmaya yardımcı olacak bir teknoloji olarak kullanılsa da çoğu yeni gelişen teknolojide olduğu gibi tehlikelere yol açabileceğinin göz önünde bulundurulması gerektiğini belirten Dr. Öğretim Üyesi Kristin Surpuhi Benli, “Bazı durumlar önceden öngörülemediği için sistemler kullanıldıkça hataların farkına varılıyor.   Yapay zeka tabanlı sistemlerin doğruluk ve önyargılar açısından daha titizlikle test edilmesi gerekiyor. Bu sistemlere girilen verilerin doğru, tutarlı ve tarafsız olması gerekiyor.” dedi.

Kaynak: (BHA) – Beyaz Haber Ajansı

Comments

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir