Giriş

Yapay zeka (AI) etiği, AI'nın etkisiyle ilgili artan endişeye bir yanıt olarak ortaya çıkan bir alandır. Gerçekten de, teknolojinin kötüye kullanılması (örneğin, psikometrik seçmen manipülasyonu, yüz tanıma gözetimi, izinsiz toplu veri toplama vb.) veya teknolojinin tasarım kusurlarına sahip olmasının bir sonucu olarak (örn.kredi reddi ve tıbbi yanlış teşhis vb.). Yapay zeka etiğini, yapay zeka, büyük veri analitiği ve blok zinciri teknolojileri gibi yeni dijital teknolojilerin geliştirilmesi ve uygulanmasıyla ortaya çıkan endişeleri ele alan daha geniş dijital etik alanının bir alt kümesi ve yeni oluşan bir alan olarak okuyoruz. Son yıllarda (2017–) önemli ölçüde artan, büyüyen ve gelişen bir literatür var ve bu literatür , bilgisayar bilimi perspektifinden yapılan incelemelerle gelişmeye devam ediyor. ve felsefi ve beşeri bilimler açısından. Bu makalenin temel amacı, alana giriş görevi gören bu gelişen alanda üst düzey bir genel bakış sağlamaktır. Bunu, AI etiğindeki temel kavramları ve eskiz yaklaşımlarını ve ana temaları tanıtarak yapıyoruz. Bunun, beşeri bilimler ve mühendislik alanındaki uzmanlığımızdan yararlanarak, her iki disiplinden literatürü dahil ederek ve bunları tüm taraflarca okunabilir bir şekilde sunmaya çalışarak alana katkıda bulunma girişimi olduğunun farkındayız. Bu nedenle, makale ne bir ahlak felsefesi parçası olarak okunmalı, ne de saf mühendislik; bunun yerine, bu makalenin disiplinler arası çağrıları harekete geçirme ve alanda disiplinler arası düşünceyi teşvik etme girişimi olarak okunmasını umuyoruz.
Genel bakış dört bölüm halinde yapılandırılmıştır; ilk bölüm temel kavramları ve terimleri, yani "AI" ve "etik" gibi anahtar terimlerle ne kastedildiğini tanıtmaktadır; ikinci bölüm, mühendislik etiği, teknoloji felsefesi ve bilim ve teknoloji çalışmaları gibi yapay zeka etiğinin bazı öncüllerini araştırıyor; üçüncü bölüm, AI etiğine yönelik üç güncel yaklaşımı, yani ilkeler, süreçler ve etik bilinç tartışır; ve son olarak, dördüncü bölüm etiğin mühendislik pratiğine çevrilmesindeki ana temaları tartışır. Genel bakış yoluyla özetleyerek ve gelecekteki yönergeleri ve tartışmaları not ederek bitiriyoruz.

Kavramlar ve terimler

Bu bölümde kavramları ve anahtar terimleri tanıtıyoruz. Bir hareket noktası olarak, "dijital etik" ve ardından "AI etiği" kapsamındaki alanları not ederek başlıyoruz. Bu sıralama, AI etiğinin daha geniş dijital etik şemsiyesinin bir alt disiplini olduğuna olan inancımızı takip ediyor. Bunu takiben, "dijital" teriminin dijital etikte nasıl kullanıldığını keşfederek bunları açıyoruz ve ardından "AI" teriminin nasıl kullanıldığını genişletiyoruz (AI etiğinin dijital etik kapsamına girmesine benzer şekilde, AI'nın da dijital etik kapsamına girdiği gösteriliyor) "dijital"). Ayrıca, "etik" teriminin bu bağlamda nasıl kullanıldığını açıklıyoruz ve yapay zeka etiğinin yararlanabileceğine inandığımız baskın etik felsefeleri genişletiyoruz. Bu bölüm, yapay zeka etiğinin ortaya çıkan kapsayıcı değer çerçevesi olarak kabul ettiğimiz "insan merkezli yapay zeka"nın keşfiyle sona eriyor.
Kavramlara ve terimlere dönmeden önce, aşağıdakilerin bir dizi tanımlayıcı tanım olarak değil, yapay zeka etiğinin temelini oluşturan bu kavramlar hakkında düşünmek için girişler ve çıkış noktaları olarak okunması gerektiğini açıkça belirtmek önemlidir. Gerçekten de, temel düzeyde, veri bilimcilere ve diğer uygulayıcılara ve alana katkıda bulunanlara, AI etiğinin hitap ettiği felsefeden temel fikirlerin olduğu konusunda kayıt olmak, olumlu bir katkı olacaktır. Bu nedenle, okuyucular aşağıdaki kavramlar ve tanıtılan anahtar terimlerle eleştirel bir şekilde ilgilenmelidir.

Dijital ve yapay zeka etiği

Daha geniş sosyal ve politik temaları kapsayan bir etik anlayışından yola çıkarak, dijital etiği ortaya çıkan dijital teknolojilerin psikolojik, sosyal (çevresel dahil) ve politik etkilerini kapsayan bir kavram olarak okuyoruz. Psikolojik olan, aracılık (ahlaki kendi kaderini tayin etme), bilişsel değişimler ve benlik gibi şeylere atıfta bulunur; sosyal olanın kimlik, aidiyet ve toplulukların yanı sıra çevre sorunlarına atıfta bulunduğu; ve siyasi olanın yasal/yargısal, demokratik (hesap verebilirlik dahil) ve ekonomik alana atıfta bulunduğu yerlerde. Ayrıca bu, etkinin kapsamı açısından da düşünülebilir, yani psikolojik olan birey üzerindeki etkiyi, toplumsal olan kollektif ve çevre üzerindeki etkiyi ve politik olan toplumun örgütlenme yapıları üzerindeki etkiyi temsil eder. Böylece,
AI etiğine dönersek, benzer bir tedavi sunuyoruz. Bu, AI'nın psikolojik , sosyal ve politik etkisidir. Bu, yukarıda sunulan dijital etik anlayışımızdan kaynaklanmaktadır, ancak yapay zeka için belirtilmiştir. Yapay zeka söz konusu olduğunda psikolojik, zihinsel özerklik, gereksiz manipülasyondan korunma ve kişinin insan olmayan bir ajanla ne zaman etkileşime girdiğini bilme hakkı gibi şeyleri ifade eder; sosyal, adalet ve hakkaniyet (hem usule ilişkin hem de esasa ilişkin) gibi konuların yanı sıra çevresel kaygıları ifade eder; ve politik, demokratik süreçler ve ekonomi üzerindeki etkilere atıfta bulunur. Dijital etik gibi, AI etiği de bu nedenle oldukça disiplinlerarasıdır ve hızla gelişmektedir.
Aşağıda, temel oluşturucu terimleri, yani "dijital" ve "etik"i keşfederek genişletiyoruz.

Dijital

Dijital etik bağlamında, "dijital", son on yılda bilgisayar bilimindeki gelişmelere dayanan, gelişmekte olan teknolojilere yapılan bir göndermedir. Gerçekten de, OECD tarafından gruplandırılmış, ortaya çıkan toplumsal olarak yıkıcı teknolojiler açısından daha geniş bir şekilde düşünülebilirler. Görüşümüze göre, bu çağın göstergesi olduğuna inandığımız temel yeni teknolojiler şunlardır:
  • Blockchain: dijital işlemlerin merkezi olmayan kaydı
  • Nesnelerin İnterneti (IoT): İnternete bağlı açma/kapama anahtarına sahip herhangi bir cihaz
  • Büyük veri analitiği: büyük bilgi havuzundan elde edilen davranışsal içgörü
  • AI/makine öğrenimi (ML) ve ilişkili algoritmalar: karar vermenin otomasyonu ve normalde insan zekası gerektiren görevlerin performansı
Daha da önemlisi, bu teknolojiler birlikte ve birbiriyle ilişkili olarak düşünülmelidir. Örneğin, AI/ML, yirminci yüzyılın ortalarından beri geliştirilmekte ve tartışılmaktadır; ancak hesaplama gücündeki ilerlemeler ve büyük veri setlerinin ortaya çıkmasıyla önemi ve uygulaması arttı. Bu nedenle, büyük veri analitiği, yapay zekanın ve büyük verilerin bir ürünüdür. Diğer örnekler, yapay zeka ve blok zinciri kullanan Federe Öğrenme, ve AI, IoT ve büyük veri analitiğini kullanan Akıllı Şehirlere doğru evrim. Yukarıdaki örneklerin, yeni teknolojileri son on yıldaki gelişmelere göre dönemselleştirdiğini kabul ediyoruz, diğerleri bu süreyi erken aşama yapay zekayı (cf. Sembolik yapay zeka vb.) ve internetin ortaya çıkışını içerecek şekilde genişletebilir.
İçinde bulunduğumuz çağa genellikle “dördüncü sanayi devrimi” denir. Birinci, ikinci ve üçüncü sanayi devrimlerinin, sırasıyla üretimin mekanizasyonunda su ve buhar gücünün kullanımı (yaklaşık 1750-1820), seri üretime güç sağlamak için elektrik kullanımı (yaklaşık 1870-1920) ile karakterize edildiği yerlerde, ve üretim ve işlemenin toplu otomasyonunda elektronik ve bilgi teknolojilerinin kullanımı (1950– dolaylarında). Dördüncüsü, üçüncüsünden (yaklaşık 1990–) sonraki bir gelişmedir ve dijital, fiziksel ve biyolojik alanları bulanıklaştıran teknolojilerin (örneğin, siber uzay, sanal ve artırılmış gerçeklik, vücut-makine arayüzü ve robotik) bir birleşimi ile karakterize edilir. ).
Aslında, (1) bu teknolojilerin her yerde benimsenmesi ve (2) fütürizm olmak üzere iki ek tema düşünebiliriz. İlki, bu tür teknolojilerin günlük yaşamda, devlet hizmet sunumunda ve endüstride artan kullanımına ve normalleşmesine bir referanstır. İkincisi, bu değişikliklerin bir sonucu olarak ortaya çıkan felsefi/bilim kurgu benzeri tartışmalara bir göndermedir (örneğin, genellikle ütopik/distopik terimlerle sunulan "tekillik", transhümanizm ve posthümanizm hakkındaki tartışmalar). Bu nedenle, dijital etik kavramı , çağdaş ve gelecekteki bağlamlardaki potansiyel fırsatların ve risklerin analizi yoluyla yeni dijital teknolojilerin etkileri açısından genişletilebilir ve ifade edilebilir (yani, uygulamalı bir etiktir ). Aslında, bunun skolastisizm etiğinden ziyade daha geniş etki anlamında etiğe bir gönderme olduğunu belirtmekte fayda var.

AI

Bu genel bakıştaki endişe AI etiği ile ilgili olduğundan, bu alt bölümde, dördüncü sanayi devrimini yönlendiren yeni dijital teknolojilerden biri olarak listelenen “AI” terimini nasıl kullandığımızı genişletiyoruz. Buradaki temel terim, en geniş anlamda bir sorunu veya görevi çözmeyi amaçlayan bir dizi kural veya süreç olarak okuduğumuz "algoritma" dır. Dijital alemde, algoritmalar programlama dili aracılığıyla bir bilgisayarda ifade edilebilir. Bunu anlamak için öncelikle genel olarak iki yapay zeka algoritması sınıfı olduğunu not etmeliyiz, bunlar şöyle adlandırılabilir: statik algoritmalar — sabit bir eylem dizisini gerçekleştiren, genellikle bilgi tabanlı sistemler olarak sınıflandırılan geleneksel programlar; ve genellikle makine öğrenimi algoritmaları olarak sınıflandırılan, çevreyle etkileşim kurarak öğrenen ve gelişen dinamik algoritmalar.
Bunu epistemolojik modellerin bir "AI sürekliliği" olarak düşünebiliriz, mevcut en başarılı olan ile
  • Makine öğrenimi algoritmaları —açık programlama olmadan öğrenme yeteneğine sahip ve yeni bir ortama veya bilgiye maruz kaldığında değişebilen bir program türü
Geleneksel olarak makine öğrenimi genel olarak şu alt bölümlere ayrılabilir:
  • Denetimli öğrenme : Bir program, çıktıları tahmin etmek için belirtilen girdilerin kullanıldığı mevcut ve işlenmiş veriler üzerinde eğitilir.
  • Denetimsiz öğrenme : Bir programın amacı, verilerdeki gizli bir yapıyı ortaya çıkarmak ve böylece daha önce bilinmeyen kalıpları "keşfetmektir".
  • Takviyeli öğrenme : Programın amacı, geliştirmede seçilen kararlar için bir ödül/ceza mekanizmasının aracılık ettiği yinelemeli bir deneme yanılma süreci yoluyla elde edilen kararlar vermektir.
Finansal hizmetlerdeki makine öğrenimi uygulamaları şunlara örnek verebilir: Bir mali rapor veri tabanının mevcut olduğunu varsayalım, bunlardan bazıları tarihsel olarak olumlu ve olumsuz olarak etiketlendiyse, gelecekteki belgeleri otomatik olarak etiketlemek için bundan yararlanabiliriz. Bu, bir algoritmayı denetimli bir şekilde eğiterek gerçekleştirilebilir. Bu belgeler yapılandırılmamışsa ve amaç ilişkileri veya konuları tespit etmekse (siyasi olaylar, ekonomik veriler vb.), denetimsiz bir şekilde eğitilmiş bir algoritma bu gizli yapıların ortaya çıkarılmasına yardımcı olabilir. Ayrıca, bu belgeler sermaye piyasalarının mevcut durumunu karakterize edebilir. Bunu kullanarak bir algoritma, kârı en üst düzeye çıkarmak, belirli risklere karşı korunmak vb. için hangi eylemlerin yapılması gerektiğine karar verebilir. Etkileşim kurarak ve çevreden (piyasalardan) geri bildirim alarak,
Yukarıda belirtilen ML alt bölümlerine ek olarak, derin öğrenme gibi önceki sorunların çözümünü daha ucuz, daha hızlı ve daha ölçeklenebilir hale getiren daha gelişmiş ML sistemlerinin başka ve yıkıcı biçimleri vardır. rakip öğrenme, ve transfer ve meta öğrenme.
Daha da önemlisi, yapay zekanın daha genel ve sıradan bir dilde kullanıldığını ve bu ifadenin daha popüler (mühendislik dışı) kullanımını kapsadığını biliyoruz. Bu formda yapay zeka daha çok genel otomasyon anlamında kullanılmaktadır. Bunu, AI etik tartışmasına ve literatürüne katılanların bunu genellikle AI'nın daha yaygın kullanımını göz önünde bulundurarak yaptıklarını kabul ederek not ediyoruz. Gerçekten de, yapay zekaya atıfta bulunulan şeyin tam olarak sınırlandırılmasının gelecekte bir tartışma konusu olabileceğini tahmin ediyoruz.

Etik

Etik, önemli ölçüde kapsamı ve anlayışın çoğulluğu olan geniş bir disiplindir. Yapay zeka etik literatüründe Batılı olmayan geleneklerin etik perspektiflerini kapsayan çağrılar ve artan bir literatür olmasına rağmen (örneğin, IEEE'nin Etik Olarak Hizalanmış Tasarımı [2017], Batılı olmayan etik sistemlerin dahil edilmesini gerektirir ve bunlardan bazılarını vurgular; Japonya ve Afrika'da), AI etiğinin baskın söylemi, İngiliz dili literatürüne erişimimiz açısından da okunması gereken Batı Avrupa ve Kuzey Amerika bağlamlarında bulunur. Bu nedenle, yalnızca içinde yazdığımız ve araştırdığımız literatür kanonunu temsil eden etik çerçevelere yönelik artan zorluğu göz önünde bulundurarak, yapay zeka etiğindeki "etik", bu felsefi kanonun temel kavramlarını temsil eder. Örneğin, genel olarak etiği neyin doğru neyin yanlış olduğuna dair standartların rasyonel ve sistematik çalışması olarak ve ahlakı da İngiliz dilinin daha yaygın kullanımında iyi ve kötü kavramları için yaygın olarak kullanılan terim olarak anlıyoruz. 
Etik ve ahlaka ek olarak, daha geniş AI etiği kavramımıza hukuk temasını da dahil ediyoruz. Bunu yapıyoruz çünkü hukuk ve etiğin birbirine son derece bağlı olduğu şeklindeki felsefi konumu sürdürüyoruz ve yönetişim, hesap verebilirlik ve şeffaflık gibi ana temaların (bkz. 'Yapay Zeka Etiğindeki Ana Temalar'  ) ağırlıklı olarak içtihattan yararlandığını not ediyoruz. Hukuku, belirli bir yargı alanındaki kodlanmış kurallar ve yönergeler olarak kabul ediyoruz. Daha da önemlisi, yasa uygulanabilirdir, yani zorlayıcı bir çekirdek vardır (genellikle hükümetin yürütme organı tarafından). Felsefi etikte bunu, erdem nosyonları tarafından tanımlanan içsel durumlarla karşılaştırılan dış kısıtlamalar açısından düşünürüz.
Bu kavramlar son derece ilişkilidir ve doğal dilde bu terimlerin kullanımı genellikle birbirinin yerine kullanılabilir ve genel tabirle eşanlamlıdır. Bu nedenle , sunduğumuz ve aşağıda sunacağımız kavramsal tartışmalar , tartışmanın içine sığdırılması gereken sabit ve esnek olmayan kavramlardan ziyade yapay zeka etik tartışmalarının yapılandırılmasına izin veren kavramlar olarak anlaşılmalıdır.

Etik Felsefesi

Felsefi etiğin kapsamı, her biri kendi topluluğuna ve önemli içsel çoğulluğa (örneğin, varoluşçuluk, faydacılık, natüralizm, egoizm/hazcılık, deontolojik/haklar etiği, vb.) sahip olan çeşitli skolastik okullar ve geleneklerle çok geniştir. Ortak hukukun ve kıta hukukunun temelini oluşturduğu şeklinde okunabilecek iki baskın yaklaşım, “faydacılık” (genellikle sonuççuluk olarak anılır) ve hak temelli etiktir. Bunlara ek olarak ve çağdaş hukuk bağlamında daha az yansıtılan erdem etiğidir. Bunlar, akademik etik felsefesindeki baskın üç etik teoridir. Bu üçü böylece aşağıda incelenmektedir.
  • 1
    Faydacılık: Hazzı en üst düzeye çıkarmanın/hoşnutsuzluğu en aza indirmenin arandığı bu kurallardan kaynaklanacak eylemlerin sonuçlarını göz önünde bulundurarak ilkelerin formüle edilmesi. Faydacılığın çok sayıda yorumu (örneğin, "eylem" ve "kural" faydacılığı) ve ayrıca "zevk" ve "hoşnutsuzluk" terimlerinin nasıl anlaşılması ve ölçülmesi gerektiğine ilişkin sorular vardır. Bu skolastik kaygıları bir kenara bırakırsak, işleyen kavram, etiğin eylemlerin sonuçlarını tartmakla ilgili olduğudur. Bu etiğe yaklaşımın hakim olduğu bir alan, hükümet politikasının ve karar verme sürecinin gerekçelendirilmesidir (örneğin, sağlık hizmetlerine ilişkin politika, genellikle vatandaşlar için (nüfus düzeyinde) sağlık sonuçlarının en üst düzeye çıkarılmasına başvurularak gerekçelendirilir; bu, onurlu etik ile rekabet eden bir iddiadır. sağlık);
  • 2
    Haklar: Bir sınıfa ait olmanın getirdiği haklar. Buradaki etik çerçeve öyledir ki, bir dizi "hak", yani yukarıdaki tanımda yetkiler olarak adlandırılanlar, bir kişiye yalnızca bir sınıfa ait olmakla verilir. Sınıfın genel bir kimlik kategorisi olarak anlaşıldığı yer. Hakların iki merkezi örneği, insan hakları ve medeni haklardır. İnsan hakları, "insan" sınıfındaki herkesin sahip olduğu haklardır ve medeni haklar, belirli bir yargı alanındaki herhangi bir vatandaşa tanınan/bahşedilen haklardır. İnsan hakları, yalnızca insan olmaları nedeniyle dokunulmaz ve temel kabul edilirken, medeni haklar siyasi topluluğun üyelerine verilir.
  • 3
    Erdem: Bir bireyin karakterinin gelişimi ve iyi karakterin bir sonucu olarak ortaya çıkan eylemler. Erdem etiği (doğal etik olarak da bilinir), kökleri Aydınlanma öncesi Aristotelesçiliğe dayanan klasik bir konumdur. Bu, karakter gelişimini vurgulayan bir etik yaklaşımıdır - bir kişinin zaman içinde idealize edilmiş bir mükemmel Benlik kavramına doğru geliştiği (genellikle tanrısal olma veya birlik içinde olma gibi dini terimlerle tanımlanır) "mükemmeliyetçilik" ile yakından ilişkilidir. ilahi). İyi karakter, dürüstlük, kendini kontrol etme, dürüstlük, cesaret, cömertlik ve adalet gibi değerler (okuma, erdemler) açısından anlaşılır.

İnsan Merkezli Yapay Zeka

Her üç etik yaklaşımda da merkezi ilgi konusu insan, yani “kişiler”dir. Bu nedenle, rasyonel bir hayvan olarak kabul ettiğimiz insanın işleyen bir tanımını sunmak gerekir.Bu tanımın anlaşılmasının birçok yolu vardır; bununla birlikte, bu amaç için, "insan" sınıfının esasen akıl yetisine sahip olma açısından tanımlandığını vurgulamak bizim için yeterlidir. Böylece insan, hayvanlarla diğer tüm özelliklerini (hareket, üreme vb.) paylaşır, ancak akıl yoluyla ayrı bir sınıfa ayrılır. Aklın kendisi detaylandırmayı gerektirir ve "özgürlük", "irade", "kasıtlılık" ve "faillik" gibi daha geniş terimlerle düşünülebilir. Bu terimlerin kendileri felsefi literatürde hararetle tartışılmaktadır; ancak, bizim amaçlarımız açısından, bunların hepsini mantığa anlamlı seçimler yapma yeteneği, yani faillik ve özerklik olarak atıfta bulunarak okuyabiliriz .
Bu itibarla, insan bir “eylemci” olarak tanımlanmakta ve “anlamlı seçim”, bilinçli karar verme olarak anlaşılmaktadır. Bundan yola çıkarak, “haysiyet”i, anlamlı seçimler yapan, yani otonom olarak var olan rasyonel failler olarak insanların ahlaki statüsüne saygı olarak tanımlayabiliriz. Yapay zeka etiği bağlamında özerklik, zihinsel ve fiziksel özerklik olarak alt bölümlere ayrılabilir; burada zihinsel özerklik, bir kişinin müzakere yetilerine ve süreçlerine (örneğin, bilinçli veya bilinçsiz olarak manipüle edilmeme hakkı) saygı ile ilgilidir ve fiziksel özerklik saygı ile ilgilidir. bir kişinin bedeni ve kendi bedeni üzerindeki tercihleri ​​için.
Ayrıca bu, yapay zekaya yönelik insan merkezli bir yaklaşımla da uyumludur: insan onuruna ve özerkliğine saygı duyan yapay zeka sistemlerinin geliştirilmesi ve konuşlandırılması. Aslında, insan merkezli yapay zeka olumlu terimlerle düşünülebilir, yani, refahı, insan onurunu ve insan gelişimini ilerletmek için insanlığın iyileştirilmesi için otomatik sistemler geliştirilmeli ve konuşlandırılmalıdır. Bir sistem bu kapsayıcı değer çerçevesini yansıttığında, Avrupa Komisyonu'nun “Güvenilir Yapay Zeka için Etik Yönergeleri” (2019) tarafından tartışıldığı gibi güvenilir , yani Güvenilir YZ olarak düşünülebilir. Aşağıdaki bölümlerde, yapay zeka sistemleri bağlamında güvenilirlik kapsamına giren temaları genişletiyoruz.

Çözüm

Yukarıda felsefi etiği AI etiği bağlamında inceledik; bizim görüşümüze göre “yapay zekanın psikolojik, sosyal ve politik etkisi” artık yukarıda tanıtılan etik yaklaşımlar ve terminoloji süzgecinden geçerek bu alanların yargılanması ve değerlendirilmesi olarak anlaşılabilir. Bu, iyinin değerlendirilmesi ve gerekçelendirilmesi olan normatiflik üzerine bir çalışmadır . Bunun aksine, değerlendirme ve rasyonel gerekçelendirme ile değil, bunun yerine insanların ne düşündüklerini ve nasıl davrandıklarını inceleme ve gözlemleme yoluyla karakterize edilen etiğe antropolojik bir yaklaşımdır. Dünyadaki etik davranışı olduğu gibi öğrenmektir. Hukuku genellikle halk iradesinin etiğinin kodlanması olarak düşünsek de, çoğu ülke yasama yapmak için doğrudan referandum kullanmaz (bkz. İsviçre “Popüler Girişimler”). Bu nedenle hukuk, etik ve ahlak arasında (yukarıda tartışıldığı gibi) karmaşık bir ilişki vardır ve bu nedenle doğrudan antropolojik etikten hukukun kodifikasyonuna geçmek standart bir uygulama değildir. Bunun yerine, antropolojik etik, doğru ve yanlışın ya da yasallık ve yasadışılığın doğrudan belirlenmesinden ziyade, hükümete ve demokrasiye güven ile ilgili sonuçları olacak demokrasiye saygıyı ölçmek açısından okunabilir. Yapay zeka etiği literatüründeki ilginç bir örnek, bir sistemin etik olarak düşünülebileceği bir "ahlaki Turing testi" varsaymaktır, eğer onunla etkileşime giren birini makul bir şekilde ahlaki olduğuna ikna edebilirse,

AI etiğinin öncülleri

Yapay zeka etiği, henüz gelişme aşamasında olan ve gelişmeye devam eden yeni ortaya çıkan bir alandır. Bununla birlikte, yapay zeka etiğinin çeşitli şekillerde devamı olarak görülebilen, uzun geleneklere ve literatüre sahip birkaç disiplin vardır. En alakalı olduğuna inandığımız üç literatür, (1) mühendislik etiği, (2) teknoloji felsefesi ve (3) bilim ve teknoloji çalışmalarıdır. Aşağıda sırayla her birini tartışmadan önce, tartışmadığımız ve birçoğunun makul bir şekilde yapay zeka etiğini besleyen çok önemli öncüller/akımlar olduğunu iddia edeceği başka literatürler olduğuna dikkat etmek önemlidir.Belki de en önemlisi robotik etiğidir. Bunun kesinlikle farkındayız ve seçtiğimiz üç tema ayrıntılı olarak okunmamalıdır. Alanları seçmemizin nedeni, üçünün disiplinlerarasılığın uç noktalarını kapsamasıdır - bir yanda ampirik olmayan "soyut" kutup olarak teknoloji felsefesi ve diğer yanda uygulayıcı olarak mühendislik etiği, son derece uygulamalı, diğer kutup (ve bilim ve teknoloji çalışmaları ortada). Bu önceki disiplinlere ek olarak, inovasyona yönelik yeni bir yaklaşım olarak “sorumlu inovasyon” şemsiyesinin güçlü bir çağdaş akım olduğunu not ediyoruz. Bu, sosyal ve etik yönlerin açıkça dikkate alınması ve ekonomik, sosyo-kültürel ve çevresel yönlerin dengelenmesi gerçeğiyle kanıtlanmıştır.

Mühendislik Etiği

Mühendislik etiği, mühendislik uygulamalarıyla ilgili değerler ve etik sistemler olarak düşünülebilir . Mühendislik, yapılanma, tasarım ve inşaatı ifade eden bir terimdir. Geniş olarak yorumlanan bilimler (genellikle uygulamalı bilim olarak anılır) içinde belki de en doğal olarak pratik disiplindir. Bu nedenle, mühendisliğin sosyal ve çevresel etkilerini tartışan ve tartışan bir literatürün mevcut olması doğaldır. Mühendislik, hepsinin belirli toplumsal etkileri olan çok sayıda alt disiplini (inşaat, makine, bilgisayar ve kimya mühendisliği gibi) kapsamasına rağmen, alan, alt disiplinlere özgü olmayan, genel topluluk temelli mühendislik kodlarının ortaya çıktığı noktaya kadar olgunlaştı.
Örneğin, aday gösterme ve seçme bursiyer topluluğu tarafından üye olan Birleşik Krallık merkezli Kraliyet Mühendisler Akademisi'nin yayınlanmış bir "Mühendislik Etiği" kılavuzu "Uygulama Kuralları" (2020) vardır. Kılavuz iki bölüme ayrılmıştır: birincisi, bir “Etik İlkeler Beyanı” (yani: (1) dürüstlük ve dürüstlük; (2) yaşama, hukuka, çevreye ve kamu yararına saygı; (3) doğruluk ve titizlik; ve (4) liderlik ve iletişim); ve ikincisi, tanecikli gerçek dünya vaka incelemeleri yoluyla etik ilkelerin beyanının detaylandırılması olan "Uygulamada Mühendislik Etiği". Buna benzer başka örnekler de var (bkz. IEEE, “Code of Ethics” [2020]).
Mühendislik etiğinin, ağırlıklı olarak, kendi standartlarını geliştiren, süreç odaklı (örn. vaka çalışması araştırması, vb.)

Teknoloji Felsefesi

Teknoloji felsefesi, teknolojinin doğasına ve bireyi toplumu ve siyaseti nasıl etkilediğine dair bir araştırma olarak düşünülebilir. Dijital etiği besleyen çok sayıda felsefe dalı vardır. Bu, yukarıda tartışıldığı gibi etik felsefesini içerir, ancak aynı zamanda politik ve sosyal felsefeyi de içerir. En alakalı felsefi selef, toplu olarak "teknoloji felsefesi" olarak adlandırılan literatürdür.
Teknoloji felsefesi 1920'lerde ortaya çıktı ve bugüne kadar devam ettiği şeklinde okunabilir (ana figürler Martin Heidegger [ö. 1976], Herbert Marcuse [ö. 1979] ve Jurgen Habermas'tır). Felsefe tarihinde daha uzun bir geçmişe sahip olan, yöntem ve bilgi ile ilgilenen bilim felsefesinden farklıdır. Buna karşılık, teknoloji felsefesi, teknolojik yeniliğin bir sonucu olarak ortaya çıkar (teknolojinin “ tekhnē” sanat veya zanaat anlamına gelir); aslında, bilimdeki keşiflerin uygulamaları ve kullanımlarıyla ilgilidir. Temel odak noktası, teknolojinin insan durumunu nasıl etkilediğinin ve teknolojinin tarafsız mı yoksa değer yüklü mü olduğunun değerlendirilmesidir (örneğin, nükleer teknolojinin özünde iyi mi yoksa kötü mü olduğunun veya özellikle teknolojinin konuşlandırılmasına bağlı olup olmadığının araştırılması). bağlamlar). Tarihsel bir perspektiften bakıldığında, teknoloji felsefesi, her zaman var olan bir nükleer tehdide ve 1960'ların karşı kültürüne sahip olan İkinci Dünya Savaşı sonrası dünyanın yanı sıra, aydınlanmanın ve "pozitivizmin" alenen iyimser tutumlarına bir yanıt olarak okunabilir. "toplumsal bilinç" tarafından simgelendi. Gerçekten de, bilimsel keşif ile bilimsel ilerleme arasında gerekli bir bağlantı olduğu ve bu ilerlemenin toplumu kapsadığı ve topluma yayıldığı fikrine meydan okuyor. Literatür tipik olarak olumsuzdur, yeni teknolojilerin benimsenmesi ve toplumun düzenleyici ilkelerine göre artan teknokratlaşma yoluyla tehlikeleri, riskleri ve anlam kaybını vurgular. Ana temalar, otomasyon, yabancılaşma, yıkım ve doğayla bağlantının kaybı, tekdüzelik, sığ tüketim ve aşırı rasyonalizasyondur. Yine de,
Teknoloji felsefesinde teknolojinin genel olumsuz eleştirisine dikkat çekmenin yanı sıra, mühendislerin ve bilim adamlarının, yani uygulayıcıların bakış açısının eksik olması da dikkat çekicidir. Bu "olumsuzluk", daha az olumsuz görüşe sahip olanların aktarabileceği ampirik kanıtları, yani aşılar ve diğer tıbbi cihazlar (örn. kalp pilleri vb.) Bu "kanıta dönüş" bir sonraki alt bölümde tartışılmaktadır.

Bilim ve Teknoloji Çalışmaları

Bilim ve teknoloji çalışmaları, kültür, toplum ve siyasetin bilimsel araştırma/faaliyet ve teknolojik yenilik üzerindeki etkisinin ve bilimsel araştırma/faaliyet ve teknolojik yeniliğin kültür, toplum ve teknolojik yenilik üzerindeki etkisinin araştırılması olarak düşünülebilir. siyaset.
Teknoloji felsefesi birkaç noktadan eleştirilebilir. Bunlardan ikisi, (1) ahlaki panikle simgelenmesi ve (2) ampirik olmamasıdır. Ahlaki panik, yani şok edici/dramatik bir olaya şiddetli tepki olgusu, ani gericiliğin tipik örneği olarak düşünüldüğünde, olumsuz eleştiri ve yorum aşırı ve bu tür teknolojilerin insanlığa sağladığı faydalara kör olarak okunuyor. Gerçekten de, teknoloji felsefesinin teknolojik yeniliğin doğasına ve etkisine ilişkin düşünülmüş bir araştırma olarak değil, siyasi müdahalenin polemik gücü olarak araçsallaştırılmasıyla, oldukça politize edilmiş olarak okunuyor.
Teknoloji felsefesinin ampirik olmadığı suçlaması, ampirik (doğal) bilimlerin beşeri bilimlerle artan bir şekilde bütünleşmesi ve metodolojik yaklaşımı nedeniyle bilimlerin tırnak içine alındığı sosyal "bilimlerin" evrimi ve gelişimi tarafından motive edilir. (sosyoloji ve antropoloji gibi). Deneysel araştırmanın gitgide karmaşıklaşan mekanizmaları -veri analizi yoluyla araştırma, hipotezi test etme ve gözlemleme (bkz. doğa bilimleri)- teknoloji filozoflarının üzerinde yorum yaptığı sorulara getirildi.
Bu ampirik dönüş, bilim ve teknoloji çalışmalarını doğurdu (1980'ler- dolaylarında). Önemli isimler arasında Bruno Latour, Andrew Light ve Donna Haraway yer alıyor. Bilim ve teknoloji çalışmaları, teknolojinin farklı şekilde tasarlanıp kullanılabileceğini ve bunun kökten farklı sosyal sonuçlara yol açabileceğini (örneğin, internetle ilişkili teknolojik gelişmeler kitlesel totaliter gözetim için araçsallaştırılabilir veya radikal anonimliği kolaylaştırır; benzer şekilde nükleer teknoloji, yıkıcı silahlar yapmak veya istikrarlı ve güvenilir bir enerji kaynağı üretmek için kullanılabilir). Başka bir deyişle, teknolojiler iyiye ve kötüye kullanılabilir. Teknolojilerin uygulanmasında somutlaşan ve mevcut olan değer sisteminin değerlendirilmesi ampirik araştırma yoluyla yapılır. Teknolojiyi kimin inşa ettiği, kimin kullandığı ve toplumu (ve toplum içindeki belirli grupları) gerçekte nasıl etkilediğine ilişkin sorular ampirik olarak araştırılabilir. Teknolojiye bir sosyal inşacılık/olumsallık olduğu fikri, bilim ve teknoloji çalışmalarının merkezinde yer alır. Bu sosyolojik/deneysel dönüşün bir örneği, kitlesel tüketimin (geleneksel teknoloji filozofları tarafından sığ tüketim olarak nitelendirilen) etkisi ve değerlendirilmesiyle ilgili olarak verilebilir: Yapılan anketler/çalışmalar, insanların kitle kültürü, sinema, müzik vb.'den hoşlandığını gösterdi. ve "kültür endüstrisine" karşı argümanlar sunulduktan sonra da bunu yapmaya devam ettiklerini. Bu, teknoloji filozoflarına yönelik bir karşı eleştiriyi gündeme getirdi, yani filozof olmayanların estetik zevklerine ve özerkliklerine saygı göstermeyi başaramadılar ve insanları saf bir kitle, yani himaye olarak tasvir ettiler.

Çözüm

Önceki bölümde bir dizi tanım sunduk, bu bölümde yapay zeka etiği alanının yararlanabileceğine inandığımız bazı öncül müritleri sunduk. Bu tanımlar ve öncül disiplinler, gelişmekte olan AI etiği alanında neyin kastedildiğini ve neyin çizildiğini bildirecektir. Aşağıdaki bölümde, ana yaklaşımların üst düzey bir analizi yoluyla yapay zeka etiğinin mevcut manzarasını çiziyoruz. Bunlar (1) ilkeler yaklaşımı, (2) tasarım gereği etik/süreçler yaklaşımı ve (3) etik bilinç yaklaşımıdır.

Üç yaklaşım: İlkeler, Süreçler ve Etik Bilinç

Yukarıda, AI etiğini etki analizi açısından tanımladık: bu, teknolojinin kötüye kullanılması (örn. psikometrik seçmen manipülasyonu, yüz tanıma gözetimi, izinsiz toplu veri toplama) veya teknolojinin tasarım kusurlarına sahip olmasının bir sonucu olarak (örn. kredi reddi ve tıbbi yanlış teşhis). Sonuç olarak, AI etiğine yönelik iki ana yaklaşım, teknolojinin kullanımlarına rehberlik etme ve yapılandırma girişimi (böylece kötüye kullanım riskini azaltma) ve tasarım gereği etik yaklaşımı olarak geniş çapta okunabilen bir ilke yaklaşımı olmuştur. , tasarım kusurlarından kaynaklanan zararları azaltmayı amaçlamaktadır. Aşağıda, bu iki yaklaşımı ve ayrıca iş etiği literatüründen alınan ve kullanan, geliştirenlerin kültürlerinde, tutumlarında ve normlarında belirli yapılar ve değişimler tesis etme ihtiyacı ile ilgili olan ve "etik bilinç" olarak adlandırılan üçüncü bir yaklaşımı inceleyeceğiz. ve yapay zeka sistemlerini devreye alın.

Prensipler

Yeni dijital teknolojilerin, özellikle de yapay zekanın zararlarına ve risklerine verilen en sesli yanıt, bu teknolojilerin kullanımını ve geliştirilmesini bilgilendiren ve yönlendiren yönergeler için çağrı yapmak olmuştur. Bu ilkeleri sınırlandırma girişimleri üç ana kategoriye ayrılır (1) soyut ilk ilkeler, (2) yasal standartların ve normların geliştirilmesi ve uygulanması ve (3) biyo/tıbbi etik ile analoji yapmak. Aşağıda bunları çiziyoruz.

Soyut İlk İlkeler

Birincisi, ilkeler, yaklaşım, tipik olarak bir dizi değerin ifadesi olan bir dizi ifadeyi ifade etmek ve bunları yapay zeka sistemlerinin (ve diğer yeni dijital teknolojilerin) geliştirilip konuşlandırılabileceği kılavuz ve standartlar olarak sunmaktır. Bu tür ilke beyanları, ilgili tüm paydaşlar, yani akademi, endüstri (ör. Google: Yapay Zeka İlkeleri , 2020), STK'lar ( Asilomar AI İlkeleri , 2017; Sorumlu AI için Montreal Deklarasyonu , 2017), ve hükümet (Birleşik Krallık Lordlar Kamarası İletişim Seçme Komitesi, 2018) —çoğunluğu AI bağlamında olmasına rağmen, veri etiğinden büyük ölçüde yararlanılır.
İlke yaklaşımı birkaç sorunla boğuşuyor (burada alıntılanan örnekler Birleşik Krallık Lordlar Kamarası'nın “Dijital Dünyada Düzenleme” raporundan [2018] alınmıştır). İlk olarak, ilkeler çoğunlukla belirsizdir ve bu nedenle yorumlanması zordur (örneğin, "bireyler ve kuruluşlar hesap vermek zorundadır" hesap verebilirlik ilkesi, bunun pratikte nasıl görüneceğine dair kapsamlı bir açıklama sağlamaz). İkincisi, ilkeler uyumsuzdur, yani aynı ilkeler dizisi içinde, bireysel ilkeler birbiriyle çelişir (örneğin, birine saygı duyulmasının muhtemel olduğu durumlarda hem "açıklık" ilkesi hem de "gizlilik" ilkesi birlikte ileri sürülür. uygulama ve diğerine saygı pahasına gelir). Üçüncüsü, terminoloji/kavramlarla ilgili önemli ölçüde netlik eksikliği vardır (örneğin, hesap verebilirlik, şeffaflık ve açıklık ilkeleri tamamlayıcıdır ve bazı açılardan eşanlamlı ifadelerdir). Son olarak, çeşitli ilke açıklamaları arasında örtüşme olsa da, açık bir fikir birliği eksikliği de vardır. Gerçekten de bugüne kadar (Nisan 2020) 80'den fazla yapay zeka ilke beyanı bulunmaktadır. Mühendislik açısından bakıldığında, bu problemler ilkelerin uygulamaya dönüştürülmesini zorlaştırmaktadır.

Mevzuat

Yapay zeka etiğine yaklaşmanın en doğrudan yolu, teknolojilerin yasal bir şekilde geliştirilmesini ve uygulanmasını sağlamaktır. Aslında, yasal uygunluk, etiği yargılamak ve değerlendirmek için açık ve nesnel bir standarttır (yasallığın, etiğin gerekli ancak yetersiz bir koşulu olarak okunabileceği durumlarda). Ancak doğrudan hukuka başvurmak mümkün değildir. Bunun nedeni, bir takım nüanslı endişelerin olmasıdır. İlk olarak, yeni yasalar oluşturmanın mı yoksa mevcut yasaların güncellenmesi ve uygulanmasının sağlanmasının mı gerekli olduğu sorusu sorulur (bkz. Avrupa Komisyonu [2020]). Gerçekten de uygulanabilecek bir yaklaşım, bir içtihatlar bütününün ortaya çıkmasına ve standartlar türetmesine ve gerekirse buna dayalı olarak, yani “aşağıdan yukarıya” bir yaklaşıma göre yasa çıkarmasına izin vermektir (bkz. Kamu Hayatında Standartlar Komitesi [2020]). İkinci olarak, özdenetim ve/veya bir standart kuruluşu gibi olası diğer seçeneklerle birlikte mevzuatın uygun olup olmadığı sorusu vardır. Üçüncüsü, yargı yetkisine ilişkin denetime saygı duymayan veya kolayca buna izin vermeyen (örneğin, ulus devletler ve uluslararası birlikler [Avrupa Birliği, Afrika Birliği, vb.]) uluslararasıcılık yoluyla teknolojik gelişme ve konuşlandırmanın gizlendiği yargı yetkisi sorunu vardır. Bu aynı zamanda kanunu uygulama sorununu da ortadan kaldırmaktadır. Dördüncüsü, teamül hukuku geleneğinde (tipik olarak İngilizcede bulunur), davaya ve içtihatlara dayalı olarak, tüzükler muğlaklığı ve çelişkiyi barındırır (adli muhakemeye dayanarak). Bu, kanunları kodlarda/protokollerde ifade etmek yoluyla mevzuat uyumluluğunu otomatikleştirmeye yönelik bir çağrının giderek arttığı otomatik sistemlerle ilgili bir sorundur (örf ve adet hukukunun barındırdığı belirsizlik ve çelişki bu bağlamda tercüme edilmez). Bu özel endişe ile ilgili olarak, Yukarıdan aşağıya (ilk ilkeler) bir hukuk felsefesiyle simgelenen kıta hukuku (AB'nin yasama gündeminde örneklenmiştir) bu sorunu yaşama olasılığı daha düşüktür. Son olarak ve daha spesifik olarak, yapay zeka bağlamında, bir algoritmanın yasal statüsüne ilişkin bir soru vardır (örneğin, algoritmalar, şirketlerin hak ve yükümlülüklerine sahip olup olmadıklarını takip edecek mi ve yapay zeka sistemleri yapay kişilik statüsüne sahip olacak mı), ve niyet yargılarına dayanan yasal suçluluk sorularının yapay zeka sistemleri bağlamında nasıl formüle edilebileceği.

Biyo/tıbbi etik

Biyo/tıbbi etik, iyi kurulmuş, sağlam, sorumluluk mekanizmalarına sahip olması ve önemli sosyal etkiye sahip uygulamalı bir bilim etiğinin bir örneği olması nedeniyle AI etiğine yaklaşırken ve geliştirirken ilham almak için kullanılabilirbu, tıpta yeni teknolojilerin uygulamaları ile karıştırılmamalıdır) veya yapay zekayı tıpta kullanma etiği. Bununla birlikte, biyo/tıbbi etik ile ortaya çıkabilecek herhangi bir AI etik şeması arasında önemli analojiler vardır. Yapay zeka sistemleri bağlamında: ilk olarak, ortak amaçlar ve güvene dayalı görevler yoktur (yasal veya etik güven ilişkileri), yani doktor ile hasta arasındaki ilişki, mühendis/şirket ve halk arasındaki ilişkiye benzemez) ; ikincisi, mesleki tarih ve normlar yoktur, yani teknolojiler henüz erken bir aşamadadır ve yapay zeka etiği alanı hâlâ tartışmalıdır (yukarıda tartışıldığı gibi); ve son olarak, hiçbir sağlam yasal ve profesyonel hesap verebilirlik mekanizması mevcut değildir, yani tıpta bir doktor “ayrılabilir” ve/veya ruhsatı geri alınabilir.

Süreçler

Yapay zeka etiğine yönelik ikinci bir yaklaşım, tasarım sorunları ve uygun yönetişim eksikliğinden kaynaklanabilecek risk ve zararları ele almaktır.

Tasarım Gereği Etik

Tasarım gereği etik yaklaşımı, sistemleri etik bir şekilde ve zararın önlenebileceği umuduyla inşa etme taahhüdüdür. Tasarım gereği etik için çeşitli yaklaşımlar vardır. Birincisi, tasarım süreçlerinde disiplinler arası bir referans olan ortak tasarım yoluyla. Buradaki fikir, AI mühendislerinin teknolojinin etik boyutunu ve potansiyel etkisini anlamak ve ayırt etmek için en iyi konumda olmayabileceği ve bu nedenle antropoloji, sosyoloji, felsefe, psikoloji, hukuk vb. ” geliştirme aşamasında ekibe entegre edilebilir. İkincisi, tasarımı yapılandırmak ve yargılamak için açık ilkelere, yasalara, standartlara ve yönergelere sahip olarak. Yukarıda belirtildiği gibi, dijital düzenleme (belki GDPR hariç) ve standartlar alanında önemli ölçüde belirsizlik ve fikir birliği eksikliği vardır. bu nedenle ilkelerin mühendislik uygulamalarına dönüştürülmesi alanında en iyi uygulamaları oluşturmayı zorlaştırmaktadır. Son olarak ve önceki noktanın bir sonucu olarak, tasarım perspektifinden, etik ilkelerin uygulanmasının dengelenmesi ve “takas edilmesi” gerekecektir. Örneğin, tasarımda şeffaflık ve açıklığa yapılan vurgu mahremiyet pahasına olabilir. Bu yargıların gerekçelendirilmesi, ifade edilmesi ve çeşitli bağlamlarda farklı biçimlerde ifade edilmesi gerekir. Bu pratik boyut ve tavizlerin gerekliliği akılda tutularak, tümü bu ödünleşimlere dikkat çeken ve sırasıyla tasarım, geliştirme ve dağıtım aşamalarında etik değerlendirmeyi (disiplinlerarasılık dahil) tartışan birkaç pratik kılavuz yayınlandı. Son olarak ve önceki noktanın bir sonucu olarak, tasarım perspektifinden, etik ilkelerin uygulanmasının dengelenmesi ve “takas edilmesi” gerekecektir. Örneğin, tasarımda şeffaflık ve açıklığa yapılan vurgu mahremiyet pahasına olabilir. Bu yargıların gerekçelendirilmesi, ifade edilmesi ve çeşitli bağlamlarda farklı biçimlerde ifade edilmesi gerekir. Bu pratik boyut ve tavizlerin gerekliliği akılda tutularak, tümü bu ödünleşimlere dikkat çeken ve sırasıyla tasarım, geliştirme ve dağıtım aşamalarında etik değerlendirmeyi (disiplinlerarasılık dahil) tartışan birkaç pratik kılavuz yayınlandı. Son olarak ve önceki noktanın bir sonucu olarak, tasarım perspektifinden, etik ilkelerin uygulanmasının dengelenmesi ve “takas edilmesi” gerekecektir. Örneğin, tasarımda şeffaflık ve açıklığa yapılan vurgu mahremiyet pahasına olabilir. Bu yargıların gerekçelendirilmesi, ifade edilmesi ve çeşitli bağlamlarda farklı biçimlerde ifade edilmesi gerekir. Bu pratik boyut ve tavizlerin gerekliliği akılda tutularak, tümü bu ödünleşimlere dikkat çeken ve sırasıyla tasarım, geliştirme ve dağıtım aşamalarında etik değerlendirmeyi (disiplinlerarasılık dahil) tartışan birkaç pratik kılavuz yayınlandı. şeffaflık ve açıklığa yapılan vurgu mahremiyet pahasına olabilir. Bu yargıların gerekçelendirilmesi, ifade edilmesi ve çeşitli bağlamlarda farklı biçimlerde ifade edilmesi gerekir. Bu pratik boyut ve tavizlerin gerekliliği akılda tutularak, tümü bu ödünleşimlere dikkat çeken ve sırasıyla tasarım, geliştirme ve dağıtım aşamalarında etik değerlendirmeyi (disiplinlerarasılık dahil) tartışan birkaç pratik kılavuz yayınlandı. şeffaflık ve açıklığa yapılan vurgu mahremiyet pahasına olabilir. Bu yargıların gerekçelendirilmesi, ifade edilmesi ve çeşitli bağlamlarda farklı biçimlerde ifade edilmesi gerekir. Bu pratik boyut ve tavizlerin gerekliliği akılda tutularak, tümü bu ödünleşimlere dikkat çeken ve sırasıyla tasarım, geliştirme ve dağıtım aşamalarında etik değerlendirmeyi (disiplinlerarasılık dahil) tartışan birkaç pratik kılavuz yayınlandı.

Yönetim

Yapay zeka etiğine yönelik süreçler yaklaşımı içinde yönetişimle ilgili sorular ortaya çıkıyor. Daha genel olarak, yeni dijital teknolojilerle ilgili olarak yönetişim, teknik ve teknik olmayan (eski kategoriye düşen tasarım gereği etik ile) olmak üzere iki geniş akıma ayrılabilir. Teknik yönetişim, teknolojinin faaliyetini sorumlu ve şeffaf kılan sistemler ve süreçlerle ilgilidir; bu, hangi tasarım seçimlerinin yapıldığının gerekçelendirilmesini ve sistemin erişilebilir olmasını sağlamayı içerir. Teknik olmayan yönetişim, karar vericileri tahsis etmeye, uygun eğitim ve öğretim sağlamaya odaklanan sistemler ve süreçlerle ilgilidir (yapay zeka gibi yeni dijital teknolojiler bağlamında, eğitim ve öğretim sürekli güncelleme gerektirecektir),
Yönetişim kapsamına girmek, denetim ve etki değerlendirmeleri hakkında giderek büyüyen bir literatürdür. Denetim ve etki değerlendirmeleri, izleme ve izleme kararları için metriklerin oluşturulmasını içerir, teknolojileri doğrulama ve hesap verebilirlik için erişilebilir kılar. Bunun en köklü şekli Veri Koruma Etki Değerlendirmeleridir (DPIA) Bugüne kadar daha genel “veri etiği” tuvalleri ve süreç çerçeveleri ortaya çıktı, ve yapay zekaya özgü etki değerlendirmeleri talep edilmekte ve geliştirilmektedir.

Etik Bilinç

Etik bilinç, örneğin münhasıran ekonomi (ücret ve kâr) veya yasallık (sorumluluk, kusurluluk ve uygunluk) endişesinden ziyade ahlaki bir farkındalık tarafından motive edilen bir eğilimi olan bir kişi veya kurum veya kültürel norm anlamına gelir. Başka bir deyişle, bu “doğru olanı yapma” arzusudur. Etik bilinci, iş ahlakının ortaya çıkışı olarak okunabilir, ticari ortamda uygulanan bir etiktir. Önceki bölümdeki temaların birçoğunu paylaşarak, davranış kuralları ve uyumluluğun entegrasyonunu kapsar; bununla birlikte, itibar meselelerini, (kurumsal) sosyal sorumluluğu ve en çok etik bilincin gelişimiyle ilgili olarak kurumsal felsefe ve kültürle ilgili endişeleri dikkate alacak şekilde genişler. Özellikle ikincisinden yola çıkarak, etik bilinç, yeni dijital teknolojilerin etik boyutlarında vatandaşların, teknoloji geliştiricilerin ve uygulayıcıların, politika yapıcıların ve endüstri liderlerinin farkındalığındaki toplumsal ve kültürel değişimler açısından ifade edilebilir. Böyle bir değişim, özellikle anlamlı insan müdahalesi ve rıza sorunları için önemli olan dijital okuryazarlığın artmasıyla kolaylaştırılacaktır.

Çözüm

Yukarıdaki yaklaşımlar (1) teorik ve soyut, (2) pratik ve süreç ve (3) kültür ve toplum açısından düşünülebilir ve karşılığında olgun bir toplumun gelişiminde gerekli olanların tümü olarak düşünülebilir. AI etiği, yani, uygulamalı etiğin tüm biçimlerinde bulunan nüansları ve içsel karmaşıklığı gerçekten yansıtan bir etik. Bu aynı zamanda soruları ve sorumlulukları siloya ayırma girişimlerine de meydan okur; Yapay zeka etiği, yalnızca filozofların veya avukatların veya sosyologların veya mühendislerin vb. alanında değildir, daha ziyade doğası gereği disiplinler arasıdır. Bu nedenle, disiplinler arası çağrı, yerine getirilebilecekleri yöntem ve yapıların geliştirilmesi ile takip edilmelidir. Bunun eğitim ve öğretim çağrısıyla uyumlu olması muhtemeldir (yukarıda yönetişime ilişkin tartışmalar bağlamında belirtilmiştir);

AI etiğindeki ana temalar

AI etik literatüründe ortaya çıkan birçok terim ve deyim vardır. Örneğin, AI etik yönergelerinin kapsamlı bir 2019 incelemesi, on bir "etik ilke" buldu: (1) şeffaflık; (2) adalet, hakkaniyet, hakkaniyet; (3) zarar vermeme; (4) sorumluluk ve hesap verebilirlik; (5) mahremiyet; (6) iyilik; (7) özgürlük ve özerklik; (8) güven; (9) haysiyet; (10) sürdürülebilirlik; ve (11) dayanışma. Bu ilkeler, literatürdeki terimlerin (ve eşanlamlılarının) sıklığına göre belirlenmiştir (yukarıdaki terimler yaygınlık sırasına göre listelenmiştir). Bununla birlikte, yukarıda belirtildiği gibi, örtüşme vardır ve bu terimler önemli ölçüde netleştirmeyi gerektirmektedir. Bu genel bakışın amaçları doğrultusunda, etik ilke alanıyla örtüşen büyüyen mühendislik uzmanlığından yararlanıyoruz. Gerçekten de, aşağıdaki bölümde, etiği uygulama ihtiyacı ile mühendislik ve sistemler arasında köprü kurma girişimini kapsadığına inandığımız altı temayı belirliyor ve araştırıyoruz. Bunlar, insan failliği ve gözetimi, güvenlik, mahremiyet, şeffaflık, adalet ve hesap verebilirliktir. Avrupa Komisyonu'nun “Güvenilir Yapay Zeka için Etik İlkeleri”nden (2019) yararlanarak, bu temaların "Güvenilir Yapay Zeka" şemsiyesi altında okunabileceğini not ediyoruz (yukarıda Kavramlar ve terimler bölümünde açıklanmıştır ).

İnsan refahı

Bu tema, insan onuruna saygı etik ilkesine dayanmaktadır ( Kavramlar ve terimler bölümüne bakın ) ve psikolojik, sosyal ve çevresel refahı içerir. Burada ana temalar şunlardır:
  • İnsan failliği üzerindeki etki: Bu, bireyler ve özellikle zihinsel özerklik üzerindeki etkiye değinmektedir. Örneğin, bir sistemin insanların müzakere/rasyonel kapasitesini doğrudan veya dolaylı olarak azaltıp azaltmadığını düşünün (örneğin, dikkat sürelerindeki bilişsel değişimler). Diğer bir konu, insan failliğine saygının, rızayı geri çekme ve ortalama bir kullanıcı bağlamında açıklanabilir olan rıza mekanizmalarıyla sunulma hakkı da dahil olmak üzere, anlamlı ve bilgilendirilmiş rızayı gerektirdiği rızadır.
  • Toplumsal etki: toplumsal, kimlik, aidiyet ve toplulukları ifade eder ve siyasi, yasal/yargısal, demokratik ve ekonomik etkileri içerir. Hem usule ilişkin hem de esasa ilişkin adalet ve önyargı konularının ele alınması gereken yerlerde vatandaş hakları burada yer alır. Ekonomi ile ilgili olarak, endişeler adil rekabeti ve rekabet için çerçeveyi belirlemeyi içerir. Son olarak, sürdürülebilirlik konuları da dahil olmak üzere çevresel etki dikkate alınmalıdır.
Yukarıdakiler, insan merkezli AI'yı temel alan etik zorunluluğun yeniden ifadesi olarak okunabilir, yani, refahı artırmak (veya en azından onu olumsuz etkilememek) için, insanlığın iyileştirilmesi için otomatik sistemlerin geliştirilmesi ve konuşlandırılması gerekir. , insan onuru ve insan gelişimi. Aslında, tartışma riskleri ve potansiyel zararları azaltma açısından sunulsa da, yapay zekanın insanlar ve toplum için önemli faydalarını akılda tutmak önemlidir.

Emniyet

Bu tema, zararın insan refahı, yani psikolojik, sosyal ve çevresel insan refahı üzerindeki olumsuz etkileri açısından tanımlandığı zararı önleme etik ilkesine dayanmaktadır.
Buradaki yaklaşım, riskleri belirleme ve ardından bunları hafifletme yaklaşımıdır: en önemlisi, yaklaşım önleyicidir. Buradaki ana temalar:
  • Sağlamlık: sistemler, bilgisayar korsanlığı gibi düşmanca saldırılara karşı dayanıklı olmalıdır. Burada esneklik önemlidir ve bir sistemin istismarını durdurmak/direnmek için önlemler vardır (örn. veri zehirlenmesi, model sızıntısı).
  • Kötü amaçlı kullanım: Bir sistem bir kullanım için geliştirilmiş olabilir ve ardından başka bir kötü amaçlı kullanım için uygun hale getirilebilir ve/veya değiştirilebilir, yani ikili kullanım (örneğin, teslimat insansız hava araçlarının silah haline getirilmesi).
  • Güvenilirlik ve yeniden üretilebilirlik: Güvenilirlik, neden geliştirildiği ve dağıtıldığı çerçevesinde çalışan sistemle ilgilidir, oysa yeniden üretilebilirlik, aynı girdi seti ve aynı koşullar altında verildiğinde tutarlı davranışla ilgilidir. Sağlamlık bağlamında bu önemlidir çünkü güvenilir olmayan ve sonuçları tekrarlamayan bir sistem, sistemde güvenilmezliğe yol açacaktır.
  • Geri dönüş planları ve bilinmeyen riskler: sağlamlık kaygısı, bilinen riskleri (yukarıda belirtilenler, yani güvenlik, kötü amaçlı kullanım, güvenilirlik ve yeniden üretilebilirlik gibi) ve bilinmeyen riskleri ele almaktır. İlki ile ilgili olarak, bilinen risklerin kullanımını ve/veya ölçümlerini özel olarak izleyen ve takip eden ve bu riski azaltacak durdurmalar veya diğer mekanizmaları devreye sokan korumalar konulabilir. İkincisi ile ilgili olarak, riski tam olarak tahmin etmek mümkün değildir ve bu nedenle, bunu hafifletmek için mekanizmalar devreye sokulabilir (örneğin, geri dönüş mekanizmaları, otomatik durdurmalar—istatistiksel veya kural tabanlı, metrikler, insan operatörler için periyodik talepler) çalışmaya devam etmek vb.).

Mahremiyet

Bu tema, bir insanın kişisel bilgilerine saygı gösterilmesi yönündeki kamusal ve siyasi talebe dayanmaktadır. Bu, özel-kişisel ve kamusal-siyasi/toplumsal alan arasındaki bir ayrıma dayanır; burada ilki, mahremiyete ikinciden daha yüksek düzeyde saygı talep ediyor olarak görülür. Bilgilendirilmiş onay, insanların verilerinin saklanması ve kullanılması konusunda bilgilendirildiği ve güncellendiği burada çok önemlidir. Ayrıca, kişisel verilerden elde edilen değer ve bunlardan elde edilen finansal faydaların dağılımı (örneğin, toplu veri odaklı iş modelleri) ile ilgili tartışmalar vardır. Ek olarak, kitlesel gözetleme ve kişisel verilerin (hem siyasi hem de ekonomik amaçlar için) tavsiye ve manipülasyonu hedeflemek ve bunlara dahil olmak için kullanılmasıyla mahremiyet siyasi bir endişe olarak ortaya çıktı.
  • Veri yönetimi: verilerin yönetimi, güvenliği korurken ve uygun olduğunda anonimleştirirken, toplama, ön işleme, izleme, analiz, sonuçların yayınlanması, yeniden kullanım ve geri dönüşüm dahil olmak üzere birçok aşamayı kapsar. Vekilharçlık, bu çok katmanlı sürecin yönetimidir ve başlı başına bir disiplin ve beceriler bütünü haline gelmiştir. Bu görevin bir kısmı, verilere (özellikle kişisel verilere) kimin eriştiğine ilişkin gizliliğin korunması için çok önemli olan veri korumadır.
  • Veri minimizasyonu: Gizlilik ve veri koruma bağlamında, yalnızca ihtiyaç duyulan veri miktarının kullanılmasına yönelik genelleştirilmiş bir ilkeye veri minimizasyonu denir. Burada üç boyut tanımlanır, yani (1) yeterlilik: verilerin belirtilen bir amacı yerine getirmek için yeterli olduğu; (2) ilgili: verilerin belirtilen amaçla haklı bir bağlantısı olduğu durumlarda; ve (3) gerekli: verilerin sınırlı olduğu ve gerekenden fazlasının tutulmadığı (ve uygun olduğunda, belirtilen amaç için artık kullanılmadığında silindiği) durumlarda.

Şeffaflık

Bu tema, güven ve hesap verebilirlik oluşturmak için çok önemli olan açıklık ilkesine dayanmaktadır. Şeffaflık, AI sisteminin nasıl kullanıldığına ilişkin hangi kararların alındığı ve sistemin nasıl karar verdiği ile ilgili olarak düşünülebilir. İlki yönetişime değiniyor (aşağıdaki hesap verebilirlik bölümünde de genişletiliyor), ikincisi ise otomatik karar vericilerin açıklanabilirliği ile ilgili. Bu nedenle, ana temalar şunlardır:
  • Açıklanabilirlik: Bir sistemin nasıl bir karara vardığını açıklayabilme (karş. kara kutu sorunu) ve bu kararı çeşitli paydaşlara açıklayabilir hale getirme, yani açıklanabilirlik, kişinin teknik bilgisine, geliştirmede oynadığı role bağlıdır. ve sistemin konuşlandırılması ve ne tür bir son kullanıcı oldukları. Ayrıca, açıklanabilirlik, yani doğruluk, izlenebilirlik, izleme, genel (global/model) ve özel (yerel/veri noktası) açıklamalar altında gruplandırılabilecek bir dizi teknik gereksinim ve araç vardır.
  • İletişim: Otomatik kararların açıklanabilirliğine, yani iletişimine ek olarak, sistemin yeteneklerinin ve amaçlarının hem doğrudan hem de dolaylı olarak etkilenenlere iletilmesi kaygısı da vardır. Çok önemli bir boyut, bir sistemin insan öznelliğini taklit ettiği durumlarda (örneğin, bir sohbet robotu), kullanıcının bir AI sistemi ile etkileşime girdiğinin açıkça iletilmesi gerektiğidir.

Adalet

Bu tema, insan eşitliğinin etik ilkesine dayanmaktadır. Adalet, adaletle ilgili tartışmalara girer ve hararetle tartışılır. Ana soru, adaletin/adaletin hangi tanım(lar)ına bağlı kalınacağıdır, yani düzeltici, dağıtımcı, usule ilişkin, esasa ilişkin, karşılaştırmalı vb. gibi birbirini dışlayan adalet teorileri vardır. veya hangi adalet/adalet kavramlarının tartışıldığını, yani siyasi topluluklar (vatandaşlık hakları) ve/veya evrensel insan kaygıları bağlamında adalet ve uygunsa, cinsiyet, milliyet, ırk gibi demografinin nasıl tanımlanacağını görevlendirin , sosyo-ekonomik geçmiş vb. Buradaki ana temalar şunlardır:
  • Önyargı: Burada önyargı, kişilere veya gruplara yönelik tercihli veya ayrımcı muameleyi ifade eder. Endişeler, (tarihsel) veri kümelerindeki önyargıya, insanların kasıtlı olarak sömürülmesine (örn. müşteriler/bölgesel fiyatlandırma) ve hizmet sunumunun kalitesine değinir. Bu aynı zamanda muamele açısından adalet ile etki açısından adalet arasındaki ayrımı da içerir.
  • Erişilebilirlik: AI etiğindeki söylemlerin çoğu zararların hafifletilmesiyle ilgili olsa da, insanların ve toplumun bu sistemlerden elde edeceği önemli faydaların olduğu da açıktır. Bu nedenle, tüm insanların mümkün olduğu ölçüde bu teknolojilere eşit erişime sahip olması çok önemlidir; satın alınabilirliğin yanı sıra, tasarımlar kullanıcı dostu olmalıdır (örneğin, farklı demografik, kültürel ve dilsel gruplara ve özellikle engellilere yönelik), yani herkese uyan tek bir yaklaşım yoktur.
  • Katılım: Kullanıcılara erişilebilir ve açıklanabilir bir dilde iletişim, daha geniş bir toplumun yapay zeka sistemleriyle anlamlı katılımını kolaylaştıracaktır. Bu aynı zamanda öğrenmeyi kolaylaştıracak ve onay için daha bütünsel bir yaklaşım geliştirecektir. Katılım, sistemin geliştirilmesi sırasında paydaşların görüşlerinin alınmasını da içerir. Bu, işe alımda çeşitliliğe (seçenek ve geçmişe göre) ve yönetişim ve gelişime dahil olan disiplinler arası ekiplere doğru genişler.

Hesap verebilirlik

Etik AI, uygulamalı etiğin bir dalıdır ve bu nedenle, doğası gereği AI sistemlerinin insanları nasıl etkilediğiyle ilgilidir. Sistemlerin nasıl geliştirildiği, süreçler, karar alma mantığı, kararları kimin verdiğine göre görev dağılımı ve etkilerin, risklerin ve zararların nerede ve ne ölçüde ölçüldüğü ve ölçüldüğü. Bütün bunlar hesap verebilirliğin kapsamına girer ve bir önceki cümle hesap verebilirliğin kimin karar verdiğini, bu kararların nasıl alındığını ve ölçmek ve izlemek için hangi sistemlerin veya araçların, yani yönetişimin devreye alındığını bilmekle ilgili olduğunu belirttiği gibi. Son olarak, hesap verebilirlik, tazmin olasılığı ve yasal sorumluluğun atanması için merkezidir. Buradaki ana temalar:
  • İnsanı tutmak: Hesap verebilirlik için çok önemli olan, güçlü insan gözetim mekanizmalarının olmasını sağlamaktır; bu , insanların nihai olarak sorumlu olduğu ve bu nedenle yapay zeka sistemlerinden kaynaklanabilecek zararlardan sorumlu olduğu ilkesine ve mevcut yasal duruma (bkz. Mevzuat ) dayanmaktadır. . Literatürde, “insanı döngüde” tutmaya yönelik büyüyen bir söylem var. ilk olarak otomatik sistemlerin karar süreçlerine insan müdahalesinin sağlanması, ikincisi ise otomatik kararlarda insan gözetimi açısından yani “karar destek sistemleri” bağlamında iki şekilde ele alınmaktadır. İkincisi ile ilgili olarak, bir sistemin sonuçlar, yönergeler ve tavsiyeler ürettiği (örneğin, birini işe almak veya bir kredi başvurusunu reddetmek) ve ardından insan incelemesinin takip ettiği bir “yarı otomatik karar” şeması düşünülebilir. tavsiyeyi onaylamak veya reddetmek için (Information Commissioner's Office, 2020). Bu durumlarda, insan incelemesinin, kararları etkili bir şekilde yalnızca otomatik hale getiren bir lastik damga uygulaması haline gelmemesini sağlamak için kontroller yapılmalıdır. İnsan sorumluluğunun sağlanması, bir kurum içindeki görev ve risklerin sorumluluklar ve rollerle eşleştirilmesini de gerektirir.
  • Algoritmik etki değerlendirmeleri: Bu, AI sistemlerinin potansiyel zararlarını azaltmak için önlemleri değerlendirmek ve böylece uygulamaya koymak için kullanılan doğrudan mekanizmalarla ilgilidir. Bunu iki yaklaşıma ayırabiliriz, yani (1) etki değerlendirmeleri ve (2) teknolojinin denetimi.
    82
    • 1
      Etki değerlendirmeleri, temel haklar, psikolojik ve sosyal refah (örneğin, sosyal uyum), vatandaş hakları, demokrasi, ekonomik ve çevresel etkilere ilişkin değerlendirmelerden farklı olabilir.
    • 2
      Denetim, teknolojinin kendisine yönlendirilebilir ve adalete (örneğin, önyargı ölçümlerini izleme), açıklanabilirliğe (örneğin, modellerin ve bireysel kararların küresel ve yerel açıklamalarını sağlama) ve sağlamlığa (örneğin, bir sistemin bilgisayar korsanlığına karşı ne kadar dayanıklı olduğunu test etme) odaklanabilir. ).
Bunların, denetimi kolaylaştıracak şekilde (hatta belki bağımsız olarak yürütülecek şekilde) yürütülmesi önemlidir. Ayrıca, net belgeler gereklidir. Bu, herhangi bir tavizi ve takas tercihlerinin arkasındaki metodoloji ve mantığı belgelemeyi içerir.

Çözüm

Bu üst düzey genel bakış ve girişte, yapay zeka ve etik gibi terimlere ilişkin temel kavramsal genel bakışlar sunduk. Bunu takiben, yapay zeka etiğinin bazı öncüllerini, yani mühendislik etiğini, teknoloji felsefesini ve bilim ve teknoloji çalışmalarını inceledik. Daha sonra AI etiğine yönelik üç güncel yaklaşımı, yani ilkeler, süreçler ve etik bilinç tartıştık. Yapay zeka etiğini mühendislik pratiğine çevirmeye dönersek, insan merkezli yapay zeka, güvenlik, şeffaflık, adalet ve mahremiyet temalarını inceledik.
AI etiğinin, alanın doğası gereği disiplinler arası olduğu netleşecek şekilde gelişeceğine inanıyoruz. Örneğin, yapay zeka etiğinde mutlaka disiplinlerarasılık gerektirdiğini gördüğümüz bazı temalar şunlardır:
  • Veri etiği ve yapay zeka : veri etiğiyle ilgili önemli literatür, uygulama ve düzenleme göz önüne alındığında, veri etiği ile yapay zeka arasındaki ilişkinin öneminin artacağını tahmin ediyoruz. Bu, ikisinin uyumlu olup olmadığını, birine öncelik verilip verilmediğini içerir, yani, yapay zeka etiği veri etiğinin üstüne "oturacak" mı yoksa veri etiği, artan yapay zeka benimsenmesi ışığında yeniden gözden geçirilip yeniden formüle edilmeli mi? Bu tartışmanın hem kavramsal olarak önemli olacağını hem de önemli düzenleyici/pratik sonuçları olacağını tahmin ediyoruz.
  • Algoritmaların yasal durumu : Daha önce 4.1.2'de ortaya atılan bir algoritmanın, onları geliştiren ve dağıtanların sorumlulukları ve yükümlülükleri açısından yasal statüsü, muhtemelen yasal suçun doğası ve hatta vekillik sorunlarıyla ilgili bir dizi karmaşık soruyu gündeme getirecektir. ve kişilik. Yapay zeka sistemleri insanların günlük yaşamlarına ne kadar çok yerleşirse ve bu sistemlerin işleviyle orantılı olarak bu sorunun karmaşıklığının ve öneminin artacağını tahmin ediyoruz (örneğin, tıp gibi sektörler, eğlence gibi diğer sektörlerin nüanslarını gerektirebilir. olmayacak).
    84
  • Ekonomik etkiler : Yapay zeka ile ekonomi arasındaki ilişkinin, yapay zeka etiğinin ana teması haline geleceğine inanıyoruz. Evrensel temel gelir vb. gibi sorulara yol açan otomasyon ve iş gücü kaybına ilişkin mevcut tartışmaya ek olarak, yapay zeka sistemlerinin vergilendirilmesi, ulusal ve uluslararası satın alma standartları ve stratejileri ve stratejik önemi ile ilgili daha geniş sorular da vardır. ulusal bütçelerde AI.
  • Politik etkiler: demokratik sistemlerde yapay zeka sistemlerinin kötüye kullanılması (örneğin, seçmen manipülasyonu) endişelerinin ötesinde, yapay zekanın devlet yapısını nasıl etkilediğine dair tartışmalar, bir ulus kavramı (açık yasal yetkiyle) ve hükümet iletişimine duyulan güven , yönetim ve hizmet sağlama, yapay zeka etiği içinde merkezi temalar haline gelecektir.
  • Doğa merkezli yapay zeka : Doğal çevre ve iklimle ilgili endişelerin de yapay zeka etiğinde güçlü bir şekilde yer alacağına inanıyoruz. Burada, AI'nın ihtiyaç duyduğu enerji kaynakları ve bunun haklı olup olmadığı ile ilgili temel etik tartışma var. Bununla birlikte, bunun ötesinde, insani kaygılar kadar çevreyi de merkezi olarak içeren, yani "doğanın" insanları, hayvanları ve doğal çevreyi içerdiği doğa merkezli bir etik anlayışı vardır.
Bu genel bakışta, okuyucular bir dizi disiplinden ve literatürden çok sayıda kavram ve fikirle tanışmış olacak - Kavramlar ve Terimler 2'de belirtildiği gibi , okuyucular iddialarımıza eleştirel bir bakış açısı getirmeli ve bunları bir nokta olarak kullanmalıdır. daha fazla düşünce ve keşif için ayrılış. Bu bağlamda, yapay zeka etiğini çeşitli bakış açılarında açık ve çoğul olan, gelişmekte olan bir alan olarak kabul ediyoruz. Bu çoğulluğa olumlu bakıyoruz ve bu nedenle şu anda mevcut olan çoklu çerçeveleri ve perspektifleri memnuniyetle karşılıyoruz. Ancak, daha uzun vadeli bir bakış açısıyla, bu çoğulluğa saygı duyarak, ortak terimlerin ve anahtar kavramların paylaşılmasını umuyoruz. Bu yazı bu akılda tutularak okunmalıdır.