
Üsküdar Üniversitesi İletişim Fakültesi Reklamcılık Kısmı Dr. Öğr. Üyesi Burak Çeber, yapay zeka ve bilgi kirliliği konusunu kıymetlendirdi.
Yapay zeka araçları vakit zaman aldatıcı içerikler de üretiyor
Son yıllarda üretken yapay zekâ uygulamalarının gündelik ömrün vazgeçilmez bir kesimi hâline geldiğini lisana getiren Dr. Öğr. Üyesi Burak Çeber, “Evde, okulda, işte yahut alışverişte farklı emellerle kullanılan yapay zekâ araçları artık herkesin hayatına dokunuyor. Gündelik hayatta sıkça kullanılan yapay zekâ araçları, yanlışsız sonuçlar vermelerinin yanında vakit zaman aldatıcı içerikler de üretebiliyor. Bu durumu ‘yapay zekâ halüsinasyonu’ kavramı ile açıklamak mümkün.” dedi.
Sistem ‘bilmiyorum’ demek yerine varsayım yürütüyor
Yapay zekâ sistemlerinin, toplumsal medya paylaşımlarından web sitelerine, formlardan bilimsel makalelere kadar pek çok kaynaktan toplanan büyük data kümeleriyle eğitildiğini anlatan Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâ, bu bilgilerdeki kalıpları öğrenip tekrar içerik üretiyor. Lakin birtakım durumlarda sistem, eğitim bilgilerinde yer almayan yahut gerçek dünyayla uyuşmayan bilgiler üretebiliyor. Bu kusurlar, olmayanı varmış üzere göstermek, mantık yanılgıları yapmak ya da yanlış bilgi vermek formunda ortaya çıkıyor. Halüsinasyonun nedenleri ortasında eğitim verisinin yetersizliği, bağlamın gerçek kurulmamış olması, fazla genelleme yapılması ve sistemin ‘bilmiyorum’ demek yerine kestirim yürütmesi bulunuyor. Velhasıl, yapay zekânın halüsinasyonları, gerçekte olmayan bilgileri üretiyor oluşu bakımından, insanların hayal gördüğü yahut yanlış algıladığı durumlara benzetilebilir.” diye konuştu.
Yapay zeka da önyargılı
İnsanların sahip olduğu önyargıların, yapay zekâya da yansıdığını kaydeden Dr. Çeber, şöyle devam etti:
“Bu durum, ‘algoritmik önyargı’ olarak isimlendiriliyor. Algoritmik önyargı iki biçimde ortaya çıkabiliyor. Birincisi, algoritmayı tasarlayan kişinin şuurlu ya da bilinçsiz tercihleri modelin davranışına yansıyabiliyor. İkincisi, yapay zekâyı eğiten bilgi setlerinde yer alan toplumsal önyargılar sistemin çıktılarına yansıyabiliyor. Yani bilgi setinde yanılgı yahut önyargı varsa, yapay zekânın ürettiği içeriklerde de birebir önyargılar görülebiliyor. Örneğin Yapay zekâ, işe alım süreçlerinde birtakım demografik kümeler ortasında ayrım yapabiliyor. 2018 yılında Google, özgeçmiş tarama aracının bayan adayların müracaatlarını geri plana atması nedeniyle eleştirildi. Benzeri bir örnek de Apple Card’da yaşandı. Algoritma, gelir düzeyi birebir olan çiftlerde erkeklere bayanlardan daha yüksek kredi limiti verdi.”
Yapay zekanın uydurma içerikleri süratle yayılıyor
Yapay zekânın, beşerler tarafından üretilen içeriklere kıyasla dezenformasyonun boyutunu büyük ölçüde artırdığını ve yayılma suratını önemli halde yükselttiğini de tabir eden Dr. Öğr. Üyesi Burak Çeber, “Bir insanın günlerce hazırlayabileceği içerikleri, yapay zekâ dakikalar hatta saniyeler içinde üretebiliyor. Bu da yanlış bilgilerin süratle viral hâle gelmesine yol açıyor. Örneğin, deepfake teknolojisiyle bir önderin yahut ünlünün yüzü ve sesi dijital ortamda taklit edilebiliyor ve görüntü biçiminde süratle yayılabiliyor.” dedi.
Reklam stratejileri belirleyenleri de var
Yapay zekânın iş süreçlerine girdikçe, reklam profesyonellerinin daha evvel hiç karşılaşmadıkları cinsten bilgilere ulaşmaya ve bunları anlamlandırmaya başladığını da lisana getiren eden Dr. Öğr. Üyesi Burak Çeber, “Artık reklamla ilgili kararlar, yalnızca bir küme uzmanın görüşüne dayanmak yerine, tüketicilerin konuşmalarına, dijital davranışlarına ve onların bıraktığı ipuçlarına nazaran verilebiliyor. Bu sayede hazırlanan reklamın çeşidi, içeriği ve özellikleri konusunda daha net fikirler elde edilebiliyor. Son periyotta yapay zekâ, reklam üretiminde somut sonuçlar da vermeye başladı. Reklam metni yazabilen, görsel ve görüntü üretebilen, hatta strateji belirleyebilen yapay zekâ teknolojileri geliştirildi. Üretken yapay zekâ uygulamaları, reklam verenlere başarılı sonuçlar sunsa da tüketiciyi her an ve her şartta tüketime yönlendirecek halde işliyor. Bu durum beraberinde doyumsuz bir tüketim anlayışını getiriyor. Bu anlayışı deniz suyu içmeye benzetebiliriz: Susuzluğunu gidermek için deniz suyu içen kişi, daha çok susar ve susadıkça daha fazla içer. Yapay zekâ da kullanımına bağlı olarak tüketimde susuzluğu artıran yahut hatırlatan bir araç vazifesi görebiliyor.” tabirinde bulundu.
Veri analitiğine dayalı yapay zekâ uygulamalarının artık yalnızca demografik bilgiler yahut tüketim alışkanlıklarını değil, insanların ruhsal profillerine dair bilgileri de toplayabildiğini söyleyen Dr. Öğr. Üyesi Burak Çeber, “Cambridge Analytica skandalında gördüğümüz üzere, bu çeşit bilgiler insanların seçim davranışlarını etkilemek için kullanılabiliyor.” formunda konuştu.
Medya okuryazarlığı şart
Sahte içerikleri tespit etmek için öncelikle güzel bir medya okuryazarlığı gerektiğine vurgu yapan Dr. Öğr. Üyesi Burak Çeber, “İçerikleri farklı kaynaklardan doğrulama alışkanlığı kazanmak büyük değer taşıyor. Bunun yanında, yapay zekâ uygulamalarına dair farkındalık da kaide. Yapay zekânın yetenekleri ve hudutları bilindiğinde, neyin geçersiz neyin gerçek olduğu çok daha kolay anlaşılabiliyor. Yapay zekâ, yüzeysel tutarlılıkta hayli başarılı. Yüzeysellikten uzaklaşıp derinlik arandığında yani ayrıntılara ve bağlama bakıldığında uydurma içerikler tespit edilebiliyor. Bunun yanında dijital filigran, anomali tespiti ve metaveri tahlili üzere formüllerle de Yapay zekâ tarafından üretilen düzmece içerikler ortaya çıkarılabiliyor.” dedi.
Yeni bir teknoloji ortaya çıktığında ekseriyetle evvel sağladığı kolaylıklar ve heyecan verici taraflarının öne çıkarıldığına işaret eden Dr. Öğr. Üyesi Burak Çeber, “Yapay zekâda da durum farklı değil; birçok vakit verimlilik, yaratıcılığa katkısı, iş süreçlerini hızlandırması üzere olumlu tesirler üzerinde duruluyor. Lakin bu yaklaşımın doğal bir sonucu olarak, düzmece içerik üretimi, manipülasyon ve etik riskler geri planda kalabiliyor. Teknolojinin birinci periyodunda aksiliklere odaklanmamak anlaşılır olsa da vakitle kesimlerin, meslek örgütlerinin, akademinin ve karar vericilerin bu risklere eğilmesi kaçınılmaz hale geliyor. Zira geçersiz üretim teknik bir mevzu olmaktan öte etik, hukuk ve toplumsal pahalarla direkt alakalı bir bahis.” sözünde bulundu.
İnsan ile yapay zekâ ortasında iş birliğine dayalı bir istikrar, hibrit zekâ…
Gerçek ile düzmecenin ortasındaki çizginin bulanıklaşmasının yapay zekânın yaygınlaşmasından çok önceye dayandığını lisana getiren Dr. Öğr. Üyesi Burak Çeber, “Ancak yapay zekâ teknolojilerinin gelişmesiyle birlikte, gerçeklik ve hakikatle kurduğumuz ilginin farklı biçimlerde koptuğuna şahit oluyoruz. Bugün, gerçeğinden ayırt etmekte zorlandığımız görseller, sesler ve görüntülerle karşılaşıyoruz. Birçok vakit kendimizi ‘Acaba bu içerik gerçek mi?’ diye sorarken buluyoruz. Burada içeriğin tamamının değil, bir kısmının da yapay zekâ ile üretilmiş olabileceği ihtimali değer kazanıyor. Bir insan yapay zekâ ile üretim yaparken, kendi tecrübelerini, hayal gücünü, yaratıcılığını ve düşünme yetisini de işin içine katıyor mu? Karşılaştığı bir sorunu çözerken bilgi birikimini, uygulama maharetlerini, bağlantı gücünü ve insan münasebetlerini kullanıyor mu? Bu soruların karşılığı ‘evet’ ise, yapay zekâ işi büsbütün devralan değil, süreci destekleyen pozisyonunda demektir. İşte bu noktada insan ile yapay zekâ ortasında iş birliğine dayalı bir istikrar (hibrit zekâ) kurulabiliyor.” diye konuştu.
Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak gibi
“Açık kaynaklı yapay zekâ adeta iki ucu keskin bir bıçak üzere. Bir yandan makus niyetli şahısların eline geçtiğinde düzmece içerik üretmek ya da insanları yanıltmak için kullanılabiliyor.” diyen Dr. Öğr. Üyesi Burak Çeber, şunları lisana getirdi:
“Öte yandan şeffaflık ve toplumsal kontrol açısından büyük bir avantaj sağlıyor; zira herkesin erişebilmesi, akademisyenlerin, araştırmacıların ve sivil toplumun süreci gözetlemesine de imkân tanıyor. Bu basamakta husus ‘Açık kaynaklı yapay zekâ modellerinin yaygınlaşması fırsat mı, yoksa risk mi’ sorusuna sıkışmamalı. Asıl değerli olan, bu teknolojiyi sorumlu halde kullanmamıza yardımcı olacak unsurları, güvenlik tedbirlerini ve etik standartları geliştirmek.”
Dijital ortamdaki her çeşitten içerik doğrulama sistemine alışılmış tutulabilmeli
Dijital ortamdaki her çeşitten içeriğin bir çeşit “dijital kimlik” ya da doğrulama sistemine natürel tutulabileceğini kaydeden Dr. Öğr. Üyesi Burak Çeber, “Şimdiden büyük teknoloji şirketleri ve kimi araştırma kurumları, görsel, metin ya da görüntülerin kaynağını gösterecek dijital filigranlar ve kimliklendirme standartları üzerinde çalışıyor. Yani bu sistem teknik olarak yapılabilir ve geliştiriliyor da. Lakin bu tek başına kâfi değil, kalıcı bir tahlil için etik ve türel düzenlemelere de gereksinim var.” halinde kelamlarını tamamladı.
Kaynak: (BYZHA) Beyaz Haber Ajansı