My Authors
Read all threads
Yeni silsile (#FLOOD): 2015'te Google’ın resim tanıyan yapay zekâsı zencileri “goril” diye işaretledi. Tabi arkasından şikâyet, özür... Google ile dalga geçmeler… Peki 2015’ten beri yapay zekâ algoritmaları kaç masum insanı bir teröristle karıştırarak uçağa binmesini engelledi?
Bu hata daha az komik değil mi? Kaç masum insan, algoritma hataları yüzünden işe giremedi; bankadan kredi alamadı? Görsel tanıyan yapay zekâ programları kaza geçirmiş otomobilin tamiri için fiyat tahmini yapıyor ve çok küçük bir hata payı ile faturayı kestirebiliyor… Ama…
Ama yapay zekâ insan ile gorili karıştırabiliyor. Ya siz? Çok kesin kabul beklediğiniz halde bir kredi isteğiniz yahut iş/ üniversite başvurunuz reddedildi mi son zamanlarda? Evet, siz de bir algoritma tarafından reddedilmiş olabilirsiniz.
Henüz fark etmediniz belki ama… Hâlihazırda hayatınızla ilgili birçok kararı insanlar değil algoritmalar veriyor. İnternette haber okurken göreceğiniz manşetler, uçak bileti ararken size teklif edilen saatler, CV’nizin işe uygunluğu, krediyi düzgün ödeme ihtimaliniz…
Evet, yanlış okumadınız, hayatınız (=haklarınız) ile ilgili birçok kararı, algoritmalar belirliyor. ABD’de suçluların hapisten sonra yeniden başlama ihtimali gizli bir formülle hesaplanıyor ve hâkime bir ekranda görünüyor. Hâkim, 5 veya 10 yıl cezayı buna göre veriyor.
Big Data çağında İslâmî devlet olur mu? derindusunce.org/2017/07/29/big…
Bu geceki kitabımız henüz Türkçeye kazandırılmamış. Müellifi O’Neil “kitle imha silahları” (Weapons of mass destruction) ifadesiyle güzel bir kelime oyunu yaparak matematiğin tehlikesine dikkat çekiyor… Daha doğrusu matematiğin tarafsız/adil zannedilmesinden doğan haksızlıklara.
Cathy O’Neil, Harvard Üniversitesi’nde matematik doktorası yapmış; Barnard College’de ders vermiş. Daha sonra özel sektöre geçip finans sektöründe risk modelleme yapmış. Kısacası işin mutfağını iyi bilen bir isim… Biz de evvelâ biraz teorik bilgi verelim…
Yapay Zekâ: Tehditler ve Fırsatlar… derindusunce.org/2018/07/17/yap…
Programlanmış zekâ parçacıklarına “uygulama” / “bilgisayar programı” diyoruz. Kuralları belirlenmiş davranışlar bunlar: Yol tarif etme, oyunlar, takvim… Bu uygulamaların en soyut kısmı ise algoritma. Bir musiki eserinin notaları gibi “besteleniyor” ve icra ediliyor algoritmalar.
bedava bulup telefona indirdikleriniz dışında çok daha büyük programlar var tabi. Banka, fabrika, hava alanı otomasyonları, FaceBook, Google, Amazon gibi şirketlerin gizli formülleri…Bunların bir kısmı çalıştıkça “öğrenebiliyor” yani kendi davranışını yeniden programlayabiliyor.
Bu kendini dönüştürme, bazen parametre/ kilit verilerin değiştirilmesiyle oluyor; bazen de basbayağı yeni kurallar ekleniyor; eski kurallar silinebiliyor. Bu ikinci sınıftaki programlar gerçekten “yapay zekâ” sınıfına konabilir. Ama ikisine birden “öğrenen algoritmalar” denir.
Aslında “algoritma” biz insanların sürekli yaptığı bir şey: Akşam ne yemek yapayım? Geçen akşam domates sosunu yemedi çocuklar; domatessiz ne yapabilirim? (Öğrenme). Sabah işe giderken 12 numaralı otobüs sürekli gecikiyor. Aynı duraklardan geçen 14 numarayı denemeliyim. (Öğrenme)
Yani yemek yapmak veya işe gitmek için bir kurallar manzumesi var hafızamızda (algoritma) ve bunun uygulanması (yemek, yol) istenen sonucu getirmezse (iştah, hız) kurallar kısmen değiştirilebilir ve amaca daha uygun hale getirilebilir.
Bir başka deyişle, bilgisayar programcıları bizim zihnimizdeki mantık zincirini otomat haline getiriyor. Fakat bu algoritmaların adalet için bir tehlike haline gelmesi de tam burada başlıyor. Neden?
İşe insan alırken uygulanan bir kuralı insan tatbik ederse sübjektif/indî olması normal. Meselâ ırkçı biri doğum yerlerini, soyad ve isimleri kullanarak zenci/ Yahudi/ Türk adayları eleyebilir. Ama bu kıstaslar programlandığında sonuç hemen herkese “bilimsel, tarafsız” görünür.
Peki mesele kasten programlanmış ırkçı kriterlerden mi ibaret? Bu işin en kolay tarafı. Böylesi bir ayrımcılığın, teftiş edilmesi ve mahkemede ispat edilmesi son derecede kolay. Şimdi ABD’de sık sık yaşanan ve Türkiye’de de olması muhtemel bir örneğe bakalım.
ABD’nin doğusundaki Washington eyaleti eğitim bakanlığı öğretmenlere başarılarına göre not vermek istiyor. En iyilere yılsonunda prim verilecek; kötülere uyarı hatta işten çıkarma. Bunun için çocukların başarısına dayanan bir formül bulunuyor ve algoritma haline getiriliyor.
Fakat uygulamanın ilk yılından itibaren gerek öğretmenler gerekse veliler sürekli yakınıyorlar. Çok iyi öğretmenlerin işten çıkarılması herkesi öfkelendiriyor. Öğretmenler formülü görmek istediklerinde programı satan firma “profesyonel sır” diyerek reddediyor.
Uzatmayalım, uzun süren çekişmeler sonunda “sihirli” formülün eğitim ile ilgisi olmayan, pazarlama sahasından devşirildiği anlaşılıyor. Müşteriye daha çok pabuç satma “başarısı” Washington eyalet okulları için “yükselen not” diye tarif edilmiş.
Formülün çalışma şeklini sezen uyanık hocalar sene başında çocuklara kasten düşük not veriyor ve yıl boyunca düzenli olarak yükseltiyormuş. Tabi yılsonundaki kötü notları sisteme hiç girmiyorlarmış. Diğer yandan dürüst ve gayretli hocalar hem vasat görünüyor hem de…
Uyanıkların sahte başarıları yüzünden yılsonu istatistiklerinde en altta kalıyorlar. Hele bir de sınıfta birkaç zayıf öğrenci varsa genel ortalama düştüğünden sınıf bütün olarak başarısız görünüyor. Üst üste 3 sene “başarısız” olan iyi hocalar işten atılınca kıyamet kopmuş.
Dürüst bir hoca hilekâr birinin arkasından aynı sınıfı alırsa notlar birden düşüyor çünkü öğrencilerin gerçekte bir şey bilmedikleri çıkıyor ortaya. Aynı sebeplerle, dürüst hoca kötü not alıyor.
Ayrıca velilerin üniversite mezunu olduğu zengin semtlerin öğretmenleri, fakir semtlerdeki meslektaşlarına göre daha rahat ilerledikleri için, zor şartlarda iyi çalışan öğretmenler de “başarısız” damgası yiyor.
Bu örnek Türkiye için özellikle önemli zira milli eğitim bakanlığımızın da buna benzer arayışları var. Peki temel hatalar neler? Uyanıkların hile yapması kaçınılmaz. Ama esas sorun, eğitimdeki başarıyı bir skor/not/rakam ile “tarafsız” ölçme hevesi. Neden?
Öğrencilerinin başını okşayan, onlara dürüstlük, dayanışma ve hayvan sevgisi aşılayan bir öğretmen düşünelim. Bir de robot gibi gelip giden, programı anlatan ikinci bir hoca daha olsun. Bu iki sınıfın not ortalaması eşit ise bu hocaların değeri eşit olur mu?
Suç, matematik formüllere veya bilgisayar programlarına güvenmek değil. Mesele, son derecede kalitatif/niteliksel bir şey olan eğitimdeki başarıyı sayılara indirgemektir. Elbette pabuç satan bir firma için daha çok satış yapan bir eleman, diğerlerinden üstündür ve prim almalıdır.
Ama satış elemanları arasında bile müşteriyi hoşnut etmek, uzun süreli ilişki kurup mağazaya tekrar gelmesini sağlamak önemli değil mi? Belki bazıları, avantaj kartları gibi yöntemleri kullanır. Ama hangi kart sizde sevgi ve saygı uyandıran bir esnafın yerini tutabilir?
Müşteri ilişkisi bile bu kadar önemli iken, talebenin muhabbet, hürmet ve merhamet tahsil edeceği hocanın değeri hangi notla ifade edilir? Elbette eğitim bakanlıkları hocaların değerini ölçmeli. Ama bu kalitatif olarak yapılabilir; meselâ hoca ve talebe ile mülakat yaparak.
Diğer yandan, illâ ki bir not sistemi uygulanacak ise, formül ve algoritmanın kodu şeffaf olmalı. Hocalar, veliler ve talebeler bunlara itiraz edebilmeli. Programı satan firma hataları için hesap vermeli.
Kitaptan başka örnekler vereceğiz ama bu aşamada önemli bir şeyin altını çizelim: Bu algoritmalar şeytan değil; biyolojik silah gibi tehlikeli bir şey değil. Ama insanın icad ettiği her şey gibi bunlar da yerli yerinde ve ahlâkî kaygılar ile kullanılmalı. Yani?
Yani hiç kimse “netice bilgisayardan çıktı; kesin doğrudur/ kusursuz matematik formüller uyguluyoruz; hata olamaz” deMEmeli. Bir başka tedbir ise formüller, o sahaya has olmalı. Finans veya pazarlamadan devşirme formülle öğretmen, doktor, hâkim değerlendirilmez.
Yerinde kullanıldığı zaman, algoritmaların çok faydalı olduğunu da hatırlatalım. Meselâ kitap satan bir siteden iki ürünü sepete koyduğunuzda “bunları alanlar bunu da aldılar” gibi tavsiye geliyor. Arama motorunda sonuçlar ilgi alanlarınıza, ülkenize, mesleğinize göre sıralanıyor
Bütün bu “hizmetler” bize vakit kazandırmıyor mu? Arama motorlarında çıkan reklâmlar da sizin tıklamanıza yahut ilgisiz kalmanıza göre yeni reklâmlar seçip getiriyor.
Gelin algoritmanın hata yaptığını düşünelim bir an. Gereksiz reklâmlarla size vakit kaybettirecek. En kötü ihtimalle bir çocuğa porno reklâmı gösterebilir (ki az değil). Ama bu firma aynı programla öğretmenlere not verirken hata yaptığında başarılı bir hocanın hayatını söndürür.
3cü bir ders daha çıkıyor: Algoritmanın kullanılacağı sahanın risk analizi adam gibi yapılmalı: Kanserli bir hastanın radyoterapi dozu mu hesaplanıyor? Sivil uçakları düşmandan ayırd edecek bir skor mu belirleniyor? Günde kaç sivil uçağın kazayla vurulmasını “normal” karşılarız?
Ara özet: 1) Kalitatif işler kantitatif formülle sayısallaştırılamaz. 2) Algoritma şeffaf olmalı. 3) Formül ve algoritma, tatbik edileceği sahaya has olarak üretilmeli. Devşirme yasak olmalı. Tatbik sahasına has risk analizi yapılmalı ve bu analiz sık sık tekrar edilmeli.
Mühendislikte çok kullanılan 1 kelime “model”. Nedir? Gerçek dünyanın küçültülmüş bir kopyası. Mühendis, model sayesinde düşünür; tasarlar ve deneme yapar. İnşaat, makine, algoritma… Model daima gerekli. Ama “küçültülmüş” demek yetmez; bir de “soyutlanmış” demek gerekir. Neden?
Uydu fotoğrafında sokak ve meydanlar görünür. GPS ekranında eczane arıyorsanız bina yüksekliği önemsizdir. Ters yön, sıkışık trafik önemlidir. Ama şehrin üstünde helikopterle uçuyorsanız haritada ters yön ve trafik sıkışıklığını değil binaların yüksekliğini görmek istersiniz.
Hangi model daha iyidir? Cevap, ihtiyaçlara göre değişir. Bunun algoritma ile ilgisi ne? Bir model olan algoritma, ASLA objektif/tarafsız olamaz. Her model gibi, algoritmalar da ihtiyaçlardan doğan körleştirici etkiye sahiptirler. “Kör” dememiz sizi şaşırttı mı?
Eczane arayan şoför, helikopter pilotunun gördüklerine “kör” değil miydi? Pilot da şoförün bildiklerine “kör” idi. Buna biz mühendis “soyutlama” der. Gerçek hayatın %100 sadık temsili imkânsız ve gereksizdir. Kullanıcıya gerekli bilgiyi gerçek hayattan soyutlayarak model yaparız.
İşte algoritmalar da bu yüzden, bazı şeyleri net göstermek için geri kalan her şeyi görmezden gelir (o şeylere kördür). Yani algoritma, indî/ sübjektif bir temsildir. Başta verdiğimiz domates soslu akşam yemeği örneğini hatırlayın. Başarılı bir akşam yemeği algoritması nedir?
Anne için yeterli vitamin ve mineral, çocuklar için her akşam pizza ve çikolatalı dondurma yemektir. Ama açlık tehlikesi bulunan bir ülkede hükümet buğday stoklarının tükenmesini engelleyecek başka bir “sihirli” formülü halka dayatabilir.
1990’larda Texas’ta cinayetten yargılanan bir zencinin idama mahkûm edilme ihtimali, bir beyaza kıyasla 6 kat fazlaydı. Hâkim ve jüri üyeleri istatistiklere bakıyor ve zencilerin yeniden suç işleme ihtimalinin daha büyük olmasını göz önüne alarak sanığın idamını istiyorlardı.
İnsan hakları örgütleri ve bir avuç senatörün çabasıyla mahkemede “ırk /renk” bilgisinin gerekçe olarak kullanılması yasaklandı. Fakat ne gariptir ki zencilerin idama mahkûm olma oranı değişmedi. Irkçılık suçlamalarına karşı Texas eyaletinin savunması ise bir algoritma idi. Yani?
Texas adalet nazırı emriyle sanıkların ırk bilgisi gizli tutularak bir veri tabanı ihdas edildi. Suç işleyenler buraya kaydediliyordu. Suçlunun hayatına ait türlü bilgiler “frekans analizi” denen istatistik bir yöntemle inceleniyor ve yeniden suç işleme ihtimali hesaplanıyordu.
İşte Texas eyaleti bu formülleri ve bilgisayar programını kalkan gibi kullanıyordu. Eleştiriler karşısında “zenciler daha fazla suç işlerse yazılım saptıyor. Zenci oldukları için değil ‘tehlikeli’ profilde oldukları için idam ediliyorlar” diyordu. Peki sizce mantıklı değil mi?
“…X mahallesinde oturan, Y okulu mezunu, ailesinde hapis yatmış en az 3 kişi varsa ve yakın arkadaşları içinde polis tarafından fişlenmiş 5 kişi varsa… bu kişinin suç işleme ihtimali, ortalama bir insana göre 5 kat yüksektir. İdam edilmezse 20 yıl sonra çıkınca yine öldürür…”
Teknoloji ırkçılığı yok etmedi; kamufle etti. Çünkü polis “stop & frisk” yapıyor: Tipini beğenmediği kişileri durdurup üzerlerini arıyor. Sert şekilde, çoğu kez insanları yere yatırarak, aşağılayarak yapılan bir şey bu. Tesadüf(!) taciz edilenlerin %90’ı zenci ve Latin Amerikalı.
Polis tacizinde başlayan sürtüşme karakolda bitiyor ve “renkli” (colored) gençler ilk polis kayıtlarını çok erken yaşta alıyorlar. Beyazlara yapılmıyor bu taciz. Haliyle bir zenci mahkemelik olduğunda eski polis kayıtlarından dolayı daha uzun ceza alıyor. Büyük sıkıntı da burada.
Mahkemenin suç kehaneti(!) yapan algoritması “öğrenen” bir algoritma. Yani suçluların hayatlarıyla ilgili ayrıntılar, hâkimin verdiği cezalar ile uyumlu oldukça bu ayrıntıların formüldeki ağırlığı artıyor. Örnek olarak Türkiye’de uygulandığını farz edelim…
Çoğunluğu Muğla doğumlu insanlardan oluşan bir hırsızlık çetesinin 40 üyesi yakalandığı anda Muğla diğer şehirlere kıyasla “tehlikeli” bir doğum yeri haline gelir. İftira sonucu mahkemeye çıkan bir Muğlalı, hâkim ve savcının gözünde “potansiyel suçlu” durumuna düşer. Sonra?
Muğlalılar diğer şehirlerde doğanlardan fazla ceza aldıkça algoritma bu paralelliği “başarı” olarak değerlendirecek ve Muğla düşmanlığını arttıracak. Tabi biz doğrum yeri gibi tek bir bilgi aldık. Anne mesleği, babanın yaşı, doğum yeri,… gibi onlarca bilgi harmanlanınca ne olur?
Bu bilgi kıskacında kalan binlerce, belki yüzbinlerce insan, algoritmanın hışmına uğrar. Peki sorun nedir? Hiç suç istatistiği yapılmasın mı? Algoritmalar tehlikeli mi? Elbette değil ama bunların insanca kullanılması gerekir. Açalım…
Ailesinde şiddet olan, hapiste yakını olan, alkol/uyuşturucu tedavisi görmüş kişilerin suç ihtimalinin yüksek olduğunu varsayalım. Bu grupta belli şehirlerin, erkeklerin ve gençlerin de öne çıktığını hesaplamış olalım. Buraya kadar matematik. Bundan sonra akıl başlıyor. Nedir?
Suç ihtimalinin grupta yüksek olması, bu insanları müstakbel suçlu yapmaz. Devletin onları daha iyi koruması gerektiğini gösterir. Yoksa Azınlık Raporu filmindeki gibi suç önleme polisleri kurup masum insanlara eziyet edersiniz ve suçun artmasına sebep olursunuz. Ya ne yapmalı?
Risk gruplarında olan gençlere eğitim bursları, gençleri riskli bölgelerden uzaklaştırma, gençlerin kendilerini değerli hissetmeleri için mes’uliyet verme; hapisteki akrabasını daha sık ziyaret etmesi için tedbir, alkol / uyuşturucu satışına sıkı denetim, ilh…
Yani istatistik, matematik, algoritma teknik birer unsurdur ve teorik olarak tarafsızdır. Ama bunların hayata geçirilmesi, insan aklı, insan vicdani ile gerçekleşir. Algoritma, onu tasarlayan kişilerin önyargılarını yansıtır.
Evet, ekmek bıçağıyla ekmek de kesilir, kavga da edilir. Ama elektrikli sandalye bir öldürme aracıdır; yumurta pişiremezsiniz. Dakikada 600 mermi atabilen bir makineli tüfek, onu elinde tutan insana bir mesaj verir. Algoritmalar da potansiyel olarak çok zararlı olabilirler.
Teknoloji de bürokrasi gibi; suç ile suçlu arasındaki mesafeyi arttırır. Memurunn “gözlerimi kaparım, vazifemi yaparım” demesi gibi, algoritma kullanan Texas mahkemeleri de “biz ırkçı değiliz; aynı suç için beyazlara hapis, zencilere idam vermemizi söyleyen bilgisayar” diyorlar.
Algoritma, aklını kullanmayanların elinde atom bombası gibidir. Meselâ fakirlere yemek dağıtmak için ihdas edilen bir veri tabanı, fakirleri öldürmek isteyen bir diktatör için de çok kullanışlıdır. İnsan, daima agâh olmalı, aklını ve vicdanını ASLA teknoloji çengeline asMAmalıdır
Eskiden liberalizme düşman olan bürokrasi nasıl onun bekçi köpeği oldu? derindusunce.org/2016/12/05/esk…
Texas’taki bir mahkemenin hataları size uzak görünebilir. Ama bankanız da kullanıyor bu algoritmaları. Kredi riskiniz böyle hesaplanıyor. Büyük bir şirkete CV gönderdiğinizde ilk eleme bir algoritma ile yapılıyor. Bu sebeple şeffaflığın altını çizelim bir kere daha.
O’Neil, kitapta şu örneği vermiş: Bir konsere gittiğinizde ilk 5 sıraya oturmanız engellenirse kızarsınız. Ama bu sıraların engelli insanlara ayrıldığı söylenirse anlayışla karşılarsınız. CV’lerin bir algoritmadan geçmesi değil mesele; bu algoritmanın kara kutu olması. Neden?
İş arayan insanlar, her türlü ayrımcılığa uğrayabilirler. Daha kötüsü, firma farkında olmadan ırkçılık veya benzeri bir önyargıyı algoritmasına kodlamış olabilir. Bu sebeple bir algoritmadan zarar görmesi muhtemel kişiler o algoritmayı teftiş edebilmeli yahut ettirebilmelidir.
Üstelik, bu algoritmaları programlayan firmalar aynı şeyi birkaç firmaya sattıkları için, bir şirkette kötü geçen mülakatınız yüzünden ömür boyu “bozuk karakterli” olarak fişlenebilir ve on farklı firmadan olumsuz cevap alabilirsiniz.
Yakında bu mesele daha da büyük bir ehemmiyete bürünecek. Meselâ şoförsüz otomobilleri yöneten algoritma bir kaza anında kimin hayatını feda edecek? Sürücü? Çocuk? Yaşlı? Yayalar?
Sigorta şirketleri 20 yıl sonra kanser riski yüksek diye müşteri reddettiği zaman sadece algoritması değil “bireysel sigorta” kavramının mânâsı da tartışmaya açılmalı. Gençlerden kâr edip yaşlı, hasta ve sakatları korumayı reddeden dayanışma(!) sistemini ahlâken nereye koyacağız?
Bütün bunlar teknolojik veya matematiksel değil ahlâkî ve hukukî meselelerdir. Fakat bu sistemleri tasarlayan ve gerçekleştiren mühendisler, işin insanî veçhesini görmezler. Sorgulama yetki ve mes’uliyetine sahip STK, siyasetçi ve hukukçular ise genelde algoritmadan anlamazlar.
İnsanlar arama motorları ve telefonlardaki “Siri” gibi yardımcılarla çalışırken dönüşüyorlar. Bu algoritmalar çalışma ve eğlenmemizi şekillendiriyor. Tıpkı otoyolların şehri deforme etmesi gibi… Bazı semtler yaklaşıyor; bazıları ortadan ikiye bölünerek uzaklaşıyor.
Cathy O’Neil’in kitabını 20 sene önce okumuş olsaydınız bir distopya romanı zannedebilirdiniz. Ama kitapta anlatılanlar, gelecek değil şu an yaşamakta olduğumuz dünya.
Bu zihin dönüşmesini iyi anlamak için bir örnek… Telefonla yüksek faizli tüketim kredisi satan elemanları düşünün. Ellerine verilen bir listede tek tek herkesi arayıp borç para vermeye çalışıyorlar.
Satış elemanlarının başarısı, sattıkları kredi miktarı eksi harcadıkları zaman. Bu gayet normal. Ama aradaki farkı “hedef” olarak bir algoritmaya verdiğinizde ne oluyor? Hangi müşteri tipi satış elemanına teklif ediliyor? Yüksek faizli yani kötü bir krediyi kim kabul eder?
ABD’deki müşteri dosyalarında yaş, cinsiyet, maaş, çocuk sayısı gibi verilerin yanında suç sicili ve sağlık durumu ile ilgili bilgiler de olabiliyor. Müşteri bulma algoritmaları işte bu verileri çaprazlayarak en çabuk karar verecek ve en yüksek faizi kabul edecek insanı buluyor.
Sizce? Zengin, polisle başı derde girmemiş, ciddî sağlık sorunu yaşamayan biri ağır şartlarda kredi alır mı? Acelesi yok, alternatifi çok; pazarlık gücü yüksek. Almıyor zaten. Kim alıyor? Çocuğunun kanser tedavisi yüzünden borca batmış, kredi ile kredi ödeyen zavallılar… Yahut…
Hapisten çıkmış, iş yok, kira ödemediği için evden atılmak üzere olan insanlar… Yağlı müşteri bulma algoritması, perişan durumdaki bu insanların kokusunu binlerce km öteden alıp satış elemanına gösteriyor. Sonra? Borç batağı derinleşiyor; intihar, aile içi şiddet, suç sarmalı…
Diğer yandan, gerçekten “yağlı müşteri” kategorisindekiler için ücretsiz banka hizmetleri, düşük faizli tüketici kredileri, bedava seyahat sigortaları… Yani algoritmalar, insanların aç gözlülüklerini daha hızlı ve geniş kapsamlı uygulamayı da mümkün kılıyor.
Bu noktada algoritma tasarlayan kişilerin ahlâkî mes’uliyeti çok mühim. Bu mes’uliyet, sağlık dosyası ve suç sicilinin yani özel verilerin yasalarla korunMAdığı ABD gibi vahşi beldelerde daha da büyük. Mahrem verileri kullanan algoritmaların suç makinesine dönüşmesi an meselesi.
Burada şu veya bu vatandaşın mahrem bilgisine erişmekten daha ciddi bir sorun var: “Kârlı satış fırsatı” aramak amacıyla tasarlanan bir algoritma, fakir avcısına dönüşmüş ve elle yapılması imkânsız olan bir zulmü hayata geçirmiş. Mesele teknik değil hukukî ve içtimaîdir. Neden?
Sefalet ve suçu bin kat arttıran bir algoritmayı tasarlayan mühendis ve sipariş eden iş adamı kanun önünde hesap vermelidir. Üstelik zarar görenler sadece fakirler değil bütün toplumdur. Suç ve aile içi şiddet yayılacak, cemiyet bir bütün olarak bu algoritmadan zarar görecektir.
Algoritmalar ile gelen zihin dönüşümü, özünde her sorunu matematik formüllere ve göstergelere indirgeme saplantısı. Meselâ bir fabrika, %90 bozuk saatler içeren bir koliyi açmadan çöpe atabilir. Tek tek ürünleri test etmek mantıklı değildir. Ama…
Aynı kalite kontrol yöntemini uygulayan bir algoritma, “kurunun yanında yaş da yanar” diye insanları çöpe atmaya başlarsa işin rengi değişir. Belli semtleri hatta şehirleri bu yüzden kaybedebilirsiniz.
Yahut etnik gruplar, cemaatler algoritma yüzünden dışlanabilir. Bu, klasik ırkçılıktan da kötü. Neden?
Çünkü bütün Kürtlere veya Alevîlere yapılan bir haksızlık saklanamaz. Ama ayrımcılığa uğrayan zümre mahdut bir yaş aralığında ise, belli semtlerde yaşıyor ve belli mesleklerde çalışıyorsa, algoritma dikkat çekmez. Mağdurlar ise her geçen gün daha fazla suça ve sefalete itilir.
Kafka "Her devrim gün gelir buharlaşır, ardında yapış yapış bir bürokrasi kalır!" demişti. Yarı-iletken teknolojisi ile bilgisayarlar 1980-1982 arasında 5.000 kat ucuzladı. (yazıyla beş bin) Herkesin bilgisayar kullanması, milyonlarca insanın program yazması gerçek bir devrimdi.
Ama bugün devrim buharlaştı. Elit bir azınlık dışında insanlık teknolojik bir bürokrasinin çarkları içinde öğütülüyor. Abartılı mı geldi? Şunu sorgulayın…
Bir devletin kanun gücüyle yaşlılara, kadınlara, fakirlere veya belli bir etnik zümreye haksızlık ettiğini düşünelim. Bu en azından bilinir; vicdan sahipleri seslerini yükseltir. “Hukuk devleti” olma iddiasındaki hiçbir ülkenin “tartışılması teklif edilemez” kanunları olamaz.
Algoritmalar da hayatımızı kanunlar gibi etkiliyor. Cep telefonumuzdan bankanın bilgi-işlem merkezine, mahkemelerden uydulara kadar her yerde algoritma var. Ama bu sayısal kanunlar teftiş edilemiyor. Kazayla/kasıtla haksızlığa yol açtıklarında kimse hesap vermiyor.
Hiç kimsenin Tiranlığı: Marx, Arendt ve Bürokrasi derindusunce.org/2011/03/27/hic…
Algoritmaların “doğruluğu tartışılmaz” neticeler ürettiğine duyulan inanç en büyük tehlike. Altını çizelim; sorun teknoloji değil. Her teknik ilerlemeyi “doğru/ faydalı” kabul eden kör zihniyettir tehlike. Bu teknoloji yobazlığı teknolojik bir totalitarizme gidiyor. Neden?
Teknoloji, karmaşıklığı sebebiyle sokaktaki adamın teftişine kapalı. Küçücük katkısı olan insanlar bütünü göremiyor ve tıpkı bürokrasideki gibi kör biçimde görevlerini yapıyorlar. Yani suç var ama suçlu yok.
Bürokrasi ve piyasa insanları akılsız ve vicdansız dişli çarklara dönüştürürler derindusunce.org/2016/07/08/bur…
Çare? İnsanların insan olduklarını her an hatırlamaları; Algoritma, makine, ideoloji veya insan eliyle yapılmış her hangi bir şeyi ASLA iyi, güzel, doğru kabul etMEmeleri. Uygulamada ne olacak?
1) Kalitatif işler kantitatif formülle sayısallaştırılamaz. 2) Algoritmalar şeffaf olmalı. 3) Algoritmalar, tatbik edilecekleri sahaya has olarak üretilmeli. Devşirme yasak olmalı. Tatbik sahasına has haksızlık tehlikesi teftişi yapılmalı ve bu teftiş sık sık tekrar edilmeli.
Dikkat Kitap: Sen insansın, homo-economicus değilsin! derindusunce.org/2014/06/09/dik…
Big Data / Большие данные / ビッグデータ derindusunce.org/2017/10/30/big…
Yapay Zekâ: Tehditler ve Fırsatlar… derindusunce.org/2018/07/17/yap…
Endüstri 4.0 ile Bilgi Teknolojileri Endüstriyi Tahakküm Altına Alabilir derindusunce.org/2018/07/01/end…
Çevik yazılımda 9 tuzak ve 9 çözüm derindusunce.org/2018/06/30/cev…
Big Data çağında İslâmî devlet olur mu? derindusunce.org/2017/07/29/big…
Vesselâm :)
Missing some Tweet in this thread? You can try to force a refresh.

Enjoying this thread?

Keep Current with Derin Düşünce .Org

Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!