Yapay Zeka Etiği, Geçmişten Günümüze Yapay Zeka Yasaları

0
180
yapay zeka etiği
yapay zeka etiği,,robot etiği, robotik yasalar

Geçmişten günümüze robotik etiği prensipleri ile yapay zeka etiği prensiplerini bu yazımızda bir araya getirdik. Robotik prensipler, robot etiği ya da yapay zeka etiği diye adlandırabileceğimiz kuralları burada ilgili notlar ve referanslarla yorum katmadan sizlere sunuyoruz.

Asimov’un 3 Robotik Yasası (1950)

Bir robot, bir insana zarar veremez ya da hiçbir şey yapmayarak zarar görmesine seyirci kalamaz.

Bir robot, birinci kuralla çelişmediği sürece bir insanın emirlerine uymak zorundadır.

Bir robot, birinci ve ikinci kuralla çelişmediği sürece kendi varlığını korumalıdır.

Bu maddeleri açık bir şekilde eklememin sebebi her şeyden önce Asimov tarafından ortaya konulan bu yapay zeka etiği yasalarının; robotların dolayısı ile yapay zekanın belli prensiplerle yönetilmesi gerektiğidir. İkinci olarak da birçok alt yasanın bu yasaların bir sonucu olarak ortaya çıktığının görülmesidir. Bu iç yasa ilk olarak Asimov’un Runaround kısa hikâyesinde karşımıza çıkmıştır. Bu wikipedia makalesi bu iç yasa ve kurgusal boyutları için oldukça detaylı bir açıklama vermektedir.

Murphy ve Wood’ un Üç Sorumlu Robotik Yasası (2009)

Bir insan, bir robotu, insan ve robot çalışma sistemini en üst seviyede kanuni ve mesleki bağlamda gerekli güvenlik ve etik standartları karşılamadan kullanamaz.

Bir robot, rolüne uygun bir şekilde insanların yanıt vermelidir.

Bir robot, ilk ve ikinci yasayla çelişmeyecek sade bir kontrol transferi sağladığı sürece, kendi varlığını korumak için yeterli otonomi ile donatılmalıdır.

Bu yapay zeka etiği yasaları, Robin Murphy ve David Wood tarafından ortak yazılan, Asimov’un ötesinde: Üç Sorumlu Robotik Yasası (Beyond Asimov: The Three Laws of Responsible Robotics [2] ) makalelerinde yer bulmuştur.

robot etiği
yapay zeka etiği, credit: kalhh/ pixabay

EPSRC Robotik Yasaları (2010)

  1. Robotlar çok kullanımlı araçlardır. Robotlar, ulusal güvenliği ilgilendiren durumlar hariç, insanları öldürmek ya da zarar vermek için tasarlanmamalılar.
  2. Robotlar değil, insanlar temsilcidir. Robotlar, özel hayat gizliliği dahil temel hak ve özgürlükler ile var olan yasalarla uyumlu olacak şekilde tasarlanmalı ve çalışmalıdır.
  3. Robotlar birer üründür. Emniyet ve güvenliği sağlayacak gerekli işlemler yapılarak tasarlanmaları gerekmektedir.
  4. Robotlar yapay eserlerdir. Korumasız ve zayıf kullanıcıları yanıltıcı bir yolla aldatmak ve onlardan yararlanmak amacıyla tasarlanmamaları gerekmektedir. Makine doğaları şeffaf olmalıdır.
  5. Robot için yasal sorumluluğu olan kişi açık bir şekilde belirtilmelidir.

Bu robotik yasalar 2010 yılında yazıldı ancak 2011 yılında ilk kez online olarak yayınlanmıştır.  Ancak resmi olarak yayınlanma tarihleri 2017 (3) yılıdır. Tony Prescott ve Michael Szollosy (4) tarafından edit edilerek Connection Science’ da iki kısım olarak yayınlandı.

EPSRC’ nin (The Engineering and Physical Sciences Research Council) robotik yasalarına giriş 2011 yılında New Scientist’ de yayınlanmıştır.

Burada yapay zeka etiği ile ilgili 23 maddenin tamamını değil sadece birkaç tanesini karşılaştırmak ve farklılıkları ortaya koymak için paylaşacağım.

  1. Emniyet: Yapay zeka sistemleri kullanım süreleri boyunca güvenli ve emniyetli olup, bunlar bir onay onay süreci dahilinde uygulanabilmeli.
  2. Sorgulanabilir Şeffaflık: Eğer bir yapay zeka sistemi zarara neden olursa, başarısızlığın sebebini öğrenmek mümkün olmalı.
  3. Yargısal Şeffaflık: Yargısal bir kararda her hangi bir otonom sistemin yer aldığı durumda, insan bir yetkili uzman tarafından tatmin edici ve denetlenebilir bir açıklama sunulabilmeli.
  4. Sorumluluk: Yapay zeka sistemi tasarım ve geliştiricileri; robotların yanlış kullanımı ve eylemlerinin ahlaki sonuçlarını, şekillendirebilme fırsatı ve sorumluluğuyla birer paydaşları konumundadırlar.
  5. Değerler Uyuşması: Davranışları ve amaçlarıyla insani değerler ile uyum içinde oldukları teyit edilebilecek düzeyde yüksek düzeyde otonom yapay zeka sistemleri tasarlanmalıdır.
  6. İnsani Değerler: Kültürel farklılıklar, özgürlükler, insani onur ve haklar ile uyumlu bir şekilde çalışabilecek düzeyde yapay zeka sistemleri tasarlanmalıdır.
  7. Kişisel Bilgilerin Gizliliği: İnsanlar; yapay zeka sistemlerinin elde ettikleri verilere, analiz etme ve kullanma güçlerine, erişim, kontrol ve yönetme hakları olmalı.
  8. Özgürlük ve Mahremiyet: Yapay zekanın kişisel veriler üzerindeki uygulamaları insanların sabit ya da hissettikleri özgürlüklerini uygunsuz bir şekilde daraltmamalı.
  9. Ortak Çıkarlar: Yapay zeka teknolojileri mümkün olduğu kadar çok insanın yararına kullanılmalı.
  10. Paylaşılan Refah: Yapay zeka tarafından yaratılan ekonomik refah, tüm insanlığın menfaatine olacak şekilde geniş bir şekilde paylaşılmalı.

ACM (Association for Computing Machinery) Birleşik Devletler Algoritmik Yasa Politikaları Kurulu: Şeffaflık ve Sorumluluk (Ocak 2017)

Farkındalık: Analitik sistemlerin sahipleri, yapımcıları, kullanıcıları ve diğer paydaşları; tasarımlarındaki muhtemel ön yargıların, kullanım gücünün, potansiyel zararları ve ön yargılar ile bireylere ve toplumlara verebilecek zararların farkında olmaları gerekmektedir.

Erişim ve Doğrulama: Yasal düzenlemelerle, algoritmik kararlarla istenmeyen bir şekilde etkilenen bireyler ve grupların doğrulama ve sorgulamalarını mümkün kılacak mekanizmaların entegre edilmesi sağlanmalıdır.

Sorumluluk: Tüm kurumlar; algoritmalarının doğurduğu sonuçların açıklanmasının uygun olmaması durumu da dahil, kullandıkları algoritmalar tarafından alınan kararlardan sorumlu tutulmalı.

Açıklama: Algoritmik karar alma mekanizmalarını kullanan kuruluş ve sistemler; hem algoritmaları tarafından uyulan prosedürü hem de alınan kararları açıklamalılar.  Bu, özellikle kamu politikaları bağlamında önemlidir.

Veri Kaynağı: algoritmanın geliştiricileri tarafından, toplanan verilerin yöntemine ait bir tanımlama sağlanmalı ve buna insan ya da algoritmik veri toplama sürecinin neden olabileceği potansiyel hataların bir incelemesi de eklenmeli.

Denetlenebilirlik: örnekler, algoritmalar, veriler ve kararlar, zarar oluşabileceğine dair bir şüphe altında denetlenebilmeleri için kaydedilmeli.

Doğrulama ve Test etme: Kuruluşlar; modellerini doğrulayacak özel yöntemler kullanarak, kullandıkları bu yöntemleri ve sonuçlarını da belgelendirmeliler.

Bu yapay zeka etiği yasaları için ACM duyurusuna buradan ulaşabilirsiniz.

robotik etiği
yapay zeka etiği, credit: 849356/ credit. pixabay

Yapay Zeka Etiği  (JSAI) İlkeleri Japon Derneği (Şubat 2017)

JSAI üyelerine katkıda bulunularak, barışa, güvenliğe, refaha ve insanlığın kamusal yararına da katkıda bulunulacaktır.

JSAI üyeleri; fikri mülkiyet, araştırmalar, geliştirmeler ve ilgili diğer anlaşmalar bağlamında yapılan yasa ve kanunlara saygı duymakla yükümlüdürler.

JSAI üyeleri yapay zekayı diğerlerine karşı dolaylı ya da direkt yolla zarar verme amacıyla kullanmamalı.

Diğer JSAI üyelerinin kişisel gizliliklerine gösterilen saygı, diğerlerinin de kişisel gizliliklerine yaptıkları yapay zeka araştırma ve geliştirmeleri bağlamında gösterilecek.

JSAI üyeleri kişisel bilgileri; ilgili yasa ve düzenlemelerle uyum içinde olacak bir şekilde kullanmakla sorumludurlar.

JSAI üyelerinin tarafsızlığı her zaman net ve adil olacaktır.

JSAI üyeleri; yapay zeka gelişirken, yapay zeka kullanımının daha önce var olmayan ve ön görülemeyen bir toplumsal ayrımcılık ve eşitsizlik yaratabileceğini kabul edecektir.

JSAI üyeleri, güvenlik uzmanları; yapay zekanın güvenli olması gerektiğini ve yapay zekanın kontrol altında tutulması sorumluluğunu kabul edecekler.

Erdemli hareket edecek JSAI üyeleri, yapay zekanın toplum üstündeki önemli etkisinin varlığını kabul edecek.

Yükümlülükler ve sosyal sorumluluk gereği JSAI üyeleri; ulaşmış oldukları ve geliştirdikleri yapay zeka teknolojilerinin sonuçlarını ve performanslarını doğrulamaları gerekmektedir.

Toplum ve JSAI üyeleri arasındaki iletişim, toplumun yapay zekayı tanımasını kolaylaştırmalı ve geliştirmeli.

JSAI üyelerinin toplumun bir üyesi ya da parçası olabilmek için hazırlanan yapay zeka etik kuralları, aynı şekilde yukarıda belirtilen politikalarla uyumlu olmalı.

Yapay zeka etiği ilkeleri ile ilgili geçmişi ve bu ilkelerin amacını gösteren tam metne buradaki linkten ulaşabilirsiniz.

The Future Society’s Science Yasa taslağı, Kanun ve Toplum İnsiyatifi (Ekim, 2017)

  1. Yapay zeka, insanlığın, toplumların ve doğal çevrenin refahını arttırmalı.

2. Yapay zeka şeffaf olmalı.

3. Yapay zekanın yapımcıları ve kullanıcıları kanunen sorumlu olmalı.

4. Yapay zekanın etkisel özellikleri, niyet edilen fiziksel dünyadaki uygulamalar içerisinde ölçülebilir olmalı.

5. Yapay zeka kullanıcılarının, uygun yeterliliklere sahip olması gereklidir.

6. Yapay zekaya verilecek karar alma yetkilendirmesiyle ilgili esaslar sivil toplumla yapılacak kapsamlı ve dikkatli bir istişare sonucu düzenlenmeli.

Nicolas Economou tarafından yazılan bu makalede 6 yasanın her biri için geniş bir açıklama yapılıyor.

Sorumlu Yapay Zeka Montreal Bildirgesi yasa taslağı ( Kasım, 2017)

Refah: Yapay zekanın gelişimi; hissedebilen tüm canlıların refahını kaçınılmaz olarak güçlendirecektir.

Özerklik: Yapay zekanın gelişimi, bütün insanlığın özerkliğini güçlendirecek ve bilgisayar sistemlerinin özerkliğini ise sorumlu bir şekilde kontrol edecektir.

Adalet: Yapay zekanın gelişimi; adalet, yaş, cinsiyet zihinsel ve fiziksel yetenekler, her çeşit ayrımcılık, cinsel yönelim, etnik ve sosyal köken ile dini inançlar dahil her türlü ayrımcılığı ortadan kaldırmalı ve adaleti güçlendirmeli.

Kişisel Gizlilik: Yapay zekanın gelişimi, insanların kişisel verilerine, kullanılan algoritmalara ve toplanan bilgi türlerine erişimlerine izin vererek, kişisel gizliliğe özen gösterildiğini garanti altına almalı.

Bilgi: Yapay zekanın gelişimi eleştirel düşünmeyi güçlendirmeli ve bizleri propaganda ile manipülasyonlardan korumalı.

Demokrasi: Yapay zekanın gelişimi; toplum hayatına, işbirliğine ve demokratik tartışmaya bilinçli katılımı güçlendirmeli.

Sorumluluk: Yapay zekanın gelişimindeki çeşitli oyuncular; teknolojik buluşlarından kaynaklanabilecek risklere karşı önlem alma sorumluluğunu resmi olarak üstlerine almalılar.

Montreal Bildirgesinde 7 yapay zeka etiği taslağını, sorular ve tanımlamalarla birlikte burada bulabilirsiniz

IEEE Etik Otonom ve Yapay Zeka Sistemleri Genel Prensipleri (Aralık 2017)

Yapay zeka ya da yapay zeka sistemlerinin insan haklarını ihlal edip etmediklerinden nasıl emin olacağız?

Varlıkların geleneksel ölçümü, yapay zeka teknolojilerinin insan refahı üzerindeki tam etkisini hesaba katmıyor.

Yapay zeka tasarımcılarının, üretimcilerin, sahiplerin ve kullanıcıların sorumlu ve hesap verebilir olmasını nasıl sağlayabiliriz?

Yapay zekanın şeffaf olmasını nasıl garanti altına alabiliriz?

Yapay zeka ve yapay zeka teknolojilerinin faydalarını nasıl arttırabilir ve yanlış kullanımıyla doğabilecek riskleri nasıl minimize edebiliriz?

Bu 5 genel yasa Ethically Aligned Design v2’ de kaleme alınan bir tartışma makalesi olup IEEE Otonom ve Yapay Zeka Sistemleri Etiği Küresel Standartlar Birliği Girişimi tarafından yayınlanmıştır. Yayınlanan yasalar bir kural olmaktan ziyade, sorular ve endişelerin uygun tavsiyelerle beraber verildiği prensipler şeklinde ifade edilmiştir.

Kısa bir makalede IEEE genel esaslar,  Mark Halverson tarafından niçin bu prensiplerin önemli olduğu açıklanıyor. Halverson bu prensipler ve standartlar arasında bağ kurarak açıklama ve referanslarla konuyu detaylandırıyor.

UNI, Dünya Küresel Sendikalar Birliği Yapay Zeka Etiği 10 Yasası (Aralık 2017)

Yapay zeka sistemlerinin şeffaf olmasını talep et.

Yapay zeka sistemlerini bir “Etik Kara Kuru” ile donat.

Yapay zekanın tüm insanlara ve gezegene hizmet etmesini sağla.

İnsan kontrolünde bir kumanda geliştir.

Ön yargısız, cinsiyetsiz bir yapay zeka olduğunu garanti altına al.

Yapay zeka sistemlerinin faydasını paylaş.

Temel hal ve özgürlükleri desteklemeyi ve geçişin desteklenmesini güvence altına al.

Küresel yönetim mekanizmaları kur

Robotlara sorumluluk yükleyecek düzenleme ve atıfları yasakla.

Yapay zeka silahlanması yarışını yasakla.

Dünya Küresel Sendikalar Birliği tarafından hazırlanan 10 yapay zeka etiği prensiplerinin tam açıklamalarına buradan ulaşabilirsiniz.

Robotikpedia, gelecekte görüşmek üzere…

Kaynak:  “A round up of robotics and AI ethics: part 1 principles” Yazar:  <https://robohub.org/a-round-up-of-robotics-and-ai-ethics-part-1-principles/>

CEVAP VER

Lütfen yorumunuzu girin
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.