Reklamı Kapat

Teknoloji alanı bir dizi faktör tarafından tehdit edilmektedir. Kullanıcılar, örneğin kötü amaçlı yazılımlardan veya gizlilik kaybından korkarlar. Ancak teknoloji sektörünün etkili isimlerine göre, insan faktörünün kendisi hakkında çok fazla endişelenmemeli, bunun yerine yapay zeka ile olan bağlantısı hakkında endişelenmemiz gerekiyor. Bu yıl Davos'ta düzenlenen Dünya Ekonomik Forumu'nda, bir dizi büyük teknoloji şirketinin yöneticileri, endüstrinin yasal düzenlemeye tabi tutulması çağrısında bulundu. Bunu yapmalarının nedenleri nelerdir?

“Yapay zeka, insanlık olarak üzerinde çalıştığımız en derin şeylerden biri. Ateşten ya da elektrikten daha fazla derinliğe sahip” Alphabet Inc.'in CEO'su geçen Çarşamba günü Dünya Ekonomik Forumu'nda şunları söyledi. Sundar Pichai, yapay zekanın düzenlenmesinin küresel bir işleme çerçevesi gerektirdiğini de sözlerine ekledi. Microsoft direktörü Satya Nadella ve IBM direktörü Ginni Rometty de yapay zeka kullanımına ilişkin kuralların standartlaştırılması çağrısında bulunuyor. Nadella'ya göre bugün, otuz yıldan fazla bir süre önce, ABD, Çin ve Avrupa Birliği'nin yapay zekanın toplumumuz ve dünya için önemini belirleyen kurallar oluşturması gerekiyor.

Bireysel şirketlerin yapay zekaya yönelik kendi etik kurallarını oluşturma girişimleri geçmişte yalnızca bu şirketlerin çalışanlarının protestolarıyla karşılanmamıştı. Örneğin Google, büyük tepkilerin ardından 2018 yılında, askeri insansız hava araçlarından gelen görüntüleri analiz etmek için teknolojiyi kullanan gizli hükümet programı Project Maven'den çekilmek zorunda kaldı. Berlin merkezli düşünce kuruluşu Stiftung Neue Verantwortung'dan Stefan Heumann, yapay zekayı çevreleyen etik tartışmalarla ilgili olarak, kuralları şirketlerin değil siyasi kuruluşların koyması gerektiğini söylüyor.

Google Home akıllı hoparlörü yapay zekayı kullanıyor

Yapay zekaya karşı mevcut protesto dalgasının bu zamanlamanın açık bir nedeni var. Sadece birkaç hafta içinde Avrupa Birliği'nin ilgili mevzuata ilişkin planlarını değiştirmesi gerekiyor. Bu, örneğin sağlık veya ulaşım gibi yüksek riskli olarak adlandırılan sektörlerde yapay zekanın geliştirilmesine ilişkin düzenlemeleri içerebilir. Örneğin yeni kurallara göre şirketlerin yapay zeka sistemlerini nasıl kurduklarını şeffaflık çerçevesinde belgelemeleri gerekecek.

Yapay zekayla bağlantılı olarak geçmişte birçok skandal ortaya çıktı; bunlardan biri, örneğin Cambridge Analytica olayı. Amazon şirketinde çalışanlar, dijital asistan Alexa aracılığıyla kullanıcıları gizlice dinledi ve geçen yılın yazında, Google şirketinin veya YouTube platformunun on üç yaşın altındaki çocuklardan veri toplaması nedeniyle yeniden bir skandal patlak verdi. ebeveyn izni olmadan.

Bazı şirketler bu konu hakkında sessiz kalırken başkan yardımcısı Nicola Mendelsohn'un açıklamasına göre Facebook yakın zamanda Avrupa GDPR düzenlemesine benzer şekilde kendi kurallarını oluşturdu. Mendelsohn yaptığı açıklamada bunun Facebook'un küresel düzenlemeye yönelik baskısının sonucu olduğunu söyledi. Google'da gizlilikten sorumlu Keith Enright, yakın zamanda Brüksel'de düzenlenen bir konferansta şirketin şu anda toplanması gereken kullanıcı verisi miktarını en aza indirmenin yollarını aradığını söyledi. "Ancak yaygın popüler iddia, bizimki gibi şirketlerin mümkün olduğu kadar çok veri toplamaya çalıştığı yönünde." kullanıcılara hiçbir değer sağlamayan verileri saklamanın riskli olduğunu belirtti.

Düzenleyiciler her halükarda kullanıcı verilerinin korunmasını hafife almıyor gibi görünüyor. Amerika Birleşik Devletleri şu anda GDPR'ye benzer federal mevzuat üzerinde çalışıyor. Bunlara göre şirketlerin, verilerini üçüncü taraflara sağlamak için müşterilerinin onayını alması gerekecek.

Siri FB

kaynak: Bloomberg

.