Bilim Teknoloji

Yapay Zeka ve Kişisel Bilgilerin Korunması | ChatGPT Yasak mı

Yapay Zeka ve Kişisel Bilgilerin Korunması Dijital Dünyada Önemli Bir Adımdır. Teknoloji çağında yaşadığımız günümüzde, yapay zeka (YZ) giderek hayatımızın her alanına entegre olmaktadır. YZ, insan zekasını taklit eden ve verileri analiz ederek bilgi ve sonuçlar çıkaran gelişmiş bir teknolojidir. Bu yenilikçi yaklaşım, tıp, otomotiv, finans ve diğer birçok sektörde çığır açan dönüşümlere yol açarken, kişisel bilgilerin korunması gibi önemli bir konuyu da beraberinde getiriyor.

Dijital dönüşümün hız kazandığı günümüz dünyasında, kişisel bilgilerin korunması giderek daha büyük bir endişe haline gelmiştir. YZ algoritmaları, büyük miktarda veriyi işlerken, insanların gizliliğini ve güvenliğini riske atabilecek potansiyel taşımaktadır. Bu durum, bireylerin dijital dünyadaki etkileşimlerinde birçok endişe ve mahremiyet kaygılarına neden olmaktadır.

Yapay Zeka ve Kişisel Bilgilerin Korunması! ChatGPT Yasak mı

Bu makalede, YZ’nin günlük yaşamımızdaki etkilerini ve kişisel bilgilerin korunmasının neden bu kadar önemli olduğunu inceleyeceğiz. Aynı zamanda, web siteleri ve işletmeler için en iyi uygulamaları içeren pratik bilgiler sunacağız. Böylece, hem teknolojik yeniliklerin sunduğu fırsatlardan yararlanırken, hem de kullanıcıların mahremiyetini koruyarak dijital dünyada başarılı bir varlık olmanızı özenle sağlayacağız.

Dijital çağın sunduğu avantajları elde etmek için, kişisel bilgilerin korunmasını göz ardı etmek mümkün değildir. Özellikle, YZ’nin hızla geliştiği bir zamanda, bilinçli bir şekilde hareket ederek hem bireylerin hem de işletmelerin güvende olmasını sağlamak, sürdürülebilir dijital bir geleceğin ve efektif bilgi edinmenin bir anahtarıdır.

ChatGPT’ye yönelik eleştiriler

ChatGPT’ye yönelik eleştirileri de her zaman bu perspektifle yorumlamaya çalıştık. İşimizin kalbinde yer alan bu devrimsel gelişmeye, her zaman bir adım arkaya çekilip hayatımıza rehberlik etmeleri için benimsediğim prensipler merceğinden bakıyoruz. ChatGPT’nin popülerlik kazanmasından sonra sıkça kulağımıza gelen “mahremiyet” kavramındaki tartışmalara da böyle yaklaşmak sanırız en sağlıklısı.

Geçtiğimiz 1 Nisan’da Open AI, İtalyan veri koruma otoritesi Garante’nin isteği üzerine, ChatGPT’yi İtalyan IP adresli kullanıcıların erişimine kapattı. Belki birçok kişiye 1 Nisan şakası gibi gelen bu durum gerçekti. İtalya IP adresine sahip kullanıcılar, Open AI’ın, Garante’nin isteği ile bunu yapmak zorunda olduğunu anlatan ifadesi ile karşılaştılar. İtalyan veri koruma otoritesi, ChatGPT’nin, Avrupa Birliği Genel Veri Koruma Tüzüğü, GDPR’ı (General Data Protection Regulation) ihlal ettiği gerekçesiyle böyle bir karar almıştı ne tuhaf.

Kurumun temel gerekçesi, Open AI’ın, internette yer alan her türlü veri ile eğitilmiş olan ChatGPT için, hiç kimse ile internetteki verisinin böyle bir çalışmada kullanıldığı veya kullanılacağı yönünde bir bilgi veya uyarı paylaşmamış olmasıydı. Garante’nin belirttiğine göre, GDPR mevzuatında, verinin herkesin ulaşımına açık bir ortamda bulunması, onun izinsiz şekilde kullanılabilir olduğu anlamına gelmiyor.

Bilgi nereden geliyor?

Üstelik Garante’ye göre, ChatGPT hangi veri seti ile eğitildiğini kullanıcılara göstermediği için GDPR’ın şeffaflık ilkelerini de yerine getirmiyor, çocukların erişimi için bir uyarı sistemi barındırmıyor ve son olarak çıktı olarak sunulan bilginin doğruluğuna dair bir güvence de sunmuyor. Talimatlara uymadığı tespit edilirse şirkete 20 milyon Euro’ya ya da yıllık küresel cirosunun yüzde 4’üne kadar ceza verilebileceği açıklandı.

İtalyan otoritesi, Open AI’a ihlalleri ortadan kaldırmaya yönelik bir dizi tedbir alma koşulu getirdi. Bu tedbirlerin arasında, veri işleme sürecine dair bir bilgilendirme notu yayınlama, kullanıcılardan yaş onayı alma, veri işleme konusunda dayandığı yasal zemini açıklama, bireylere kendileri hakkındaki yanlış bir veriyi düzeltme fırsatı sunma, İtalyan kullanıcıları bilinçlendirmek için bir kampanya yürütme gibi maddeler yer aldı ve bir çoğu için tamamlanma tarihi olarak 30 Nisan belirlendi.

Ve mutlu son! Yapay Zeka ve Kişisel Bilgilerin Korunması

Belirlenen tedbirlerin bu tarihe kadar hayata geçirilmesi durumunda, ChatGPT’nin İtalyan kullanıcıların hizmetine tekrar sunulabileceği duyuruldu. Ve mutlu son: OpenAI’ın belirlenen tedbirleri tamamlaması ile birlikte ChatGPT İtalyan kullanıcıların erişimine tekrar açıldı.

İtalya’nın veri koruma kurumu Garante ile son ayların adından en çok söz ettiren teknoloji şirketi Open AI arasındaki bu olay, aslında bir teknoloji şirketi ile bir resmi otoritenin arasında geçen ve son kullanıcıları etkileyen çok tipik bir örnekti. Bundan sonra benzerlerini görebileceğimiz nitelikteki bu “uyarı-aksiyon” silsilesi dünya teknoloji tarihindeki yerini aldı.

İnternet ve yapay zeka dünyasında kişisel verileri korumak ne kadar kolay olabilir?

Aslında yapay zeka çağının öncesine gittiğimizde sadece internetin keşfi ile bile kişisel verileri korumak çok zor bir hale geldi. Ancak verinin giderek değerinin artması, veri bilimindeki gelişmeler ve nihayet yapay zekanın bu kadar yetkin bir şekilde karşımıza çıkması veri korumanın zorluğunu birkaç kat arttırdı.

Open AI ile Garante arasındaki bu örnek olayda da gördüğümüz gibi, Avrupa’nın veri koruma mevzuatı temel olarak bu tarz teknoloji oluşumlarından bazı tedbirleri uygulamalarını istiyor. Bunların başında yaş kontrolü geliyor. Çocukların kontrollü kullanımı için bu gibi araçlara yaş teyidi mekanizmaları ekleniyor.

Bir diğer tedbir, veri gizliliği politikasının açıklanması. Kurumun bizlerin verisini üçüncü taraflardan nasıl koruyacağını açıklaması bekleniyor. Kurum, kendi kullanım amacı zarar verme odaklı olmasa da, veriyi, üçüncü tarafların eline geçmeyecek şekilde korumak, gerekli önlemleri almak zorunda.

Yapay zeka oluşumu! Yapay Zeka ve Kişisel Bilgilerin Korunması

Bir diğer konu olarak, eğer bu bir yapay zeka oluşumu ise, sistemin veri ile nasıl eğitildiğinin açıklanması, bu açıklamanın teknik anlatımlardan uzak, herkesin anlayabileceği şekilde kamuya açık bir alanda yayınlanması bekleniyor. Ayrıca, bireylerin, verilerinin kullanımını sonlandırma hakkı ve bunun online olarak yapılabilmesi de gerekli görülüyor. Bununla da kalmıyor.

Bireylerin kendileri hakkındaki yanlış bir bilgiyi düzeltme hakkı var. ChatGPT gibi bir araç özelinde buna bir de bireyin kendi verisini eğitim verisi içinden silinmesini isteme hakkı ekleniyor. Bireysel haklar penceresinden baktığımızda, tüm bunların yapılması en azından bireye bilgi edinme, kişisel verisinin kullanımına engel olma, çocuklarını olası zararlı etkilerden koruma şansı tanıyor.

Değerlendirmeme Open AI ve ChatGPT özelinde devam edecek olursam, ChatGPT’nin üç sebeple verilerimizi kullanması sakıncalı bulunuyor. Birinci argüman, Open AI’ın hiç birimizden, kişisel verilerimizin eğitim amaçlı kullanılması için izin almamış olması.

Mahremiyet ve Yapay Zeka! Yapay Zeka ve Kişisel Bilgilerin Korunması

Bu mahremiyet ilkesinin açık bir ihlali olarak değerlendiriliyor. Verinin kamuya açık bir alanda yer alması (sosyal medya hesaplarımız, forumlarda yazdıklarımız, kullandığımız diğer araçlardaki veriler gibi) onun izinsiz kullanılmasını normalleştirmiyor. Bunun sebebi, mahremiyet ilkesinin önemli bir parçası olan “verinin bağlamına uygun kullanılması” ilkesi.

Bu ilkeye göre kişisel veri, üretilme amacı veya bağlamı dışında kullanılamaz. ChatGPT’nin “unutulma hakkı” diye bilinen, kişinin yapay zeka eğitim mekanizması dahil olmak üzere, tüm verisinin, silinmesini isteme hakkının da ihlal ettiği belirtiliyor. Özellikle sistemdeki veri yanlış ise, bu yanlış verinin yayılmasını önlemek için unutulma hakkı önem kazanıyor. İkinci dikkate değer konu, ChatGPT’nin eğitim verisinin içinde telif hakkına tabi veya mülkiyet hakkı olan verinin de yer alması.

ChatGPT size rahatlıkla telif hakkı ile koruma altında olan bir kitabın içinden parçalar sunabiliyor. Diğer tartışma konusu ise, Open AI’ın bireylere ve kurumlara verilerini kullandığı için bir ücret ödenmemiş olması. Temel hammaddesi veri olan bir şirketin bunun karşılığında bir maliyete katlanmamış olması dikkat çekici bir durum olarak değerlendiriliyor.

Open AI perspektifinden bakacak olursak…

Öncelikle ChatGPT’nin hangi kişisel verileri aldığına bir göz atarsak, kayıt veya ödeme sırasında alınan hesap bilgileri, sanal asistanlara girilen her türlü bilgi, IP adresi, konum gibi cihaz üzerinden alınan bilgiler sayılabilir. Open AI bu bilgilerin kendi hizmet sağlayıcıları, birlikte iş yaptığı şirketler ve bağlı kuruluşları ile yapay zeka eğitiminde rol alan kişilerle paylaştığını belirtiyor. Bu konular Open AI’ın şeffaf bir şekilde paylaştığı noktalar. Bunların dışında, Open AI, bazı konulara dikkat çekiyor.

İnternette yer alan bir çok veri, evet kişisel ve bireylerin deneyimleri ile ilgili, ancak Open AI bunları kullanırken özellikle belirli kişilere ait olduğu için değil, rastlantısal şekilde buluyor ve kullanıyor. Gündeme getirdiği bir başka konu, yapılan işin insanlığın genel faydasına olması ve tek tek bireylere ve topluma zarar verecek bir nitelikte olmaması. Ayrıca, ürünün özünde bir kişisel profil oluşturma, bireylerle iletişime geçme, onlara reklam ve tanıtım yapma, bir ürün veya hizmet satma amacı barındırmaması da Open AI tarafından dile getirilen konular arasında.

Yapay zeka dünyasında kişisel verilerin korunması mümkün mü?

Verinin teknolojinin temel yapı taşı haline geldiği bir dünyada kişisel verileri korumak ve teknolojik ilerlemeyi mahremiyeti gözeterek sürdürmek elbette çok karmaşık bir süreç olacaktır. Gri alanlarla dolu bir zeminde net ve adaletli kurallar getirmek ve bunları uygulanabilir kılmak hiç kolay değil. Bu noktada kaybedilmemesi gereken bakış açısı, yenilikçiliği ve teknolojik gelişmeyi engelleyici bir duruş sergilemeden bireyin temel haklarını korumak.

Yapay zeka teknolojileri gelişirken, en temelde hangi noktalar kişisel veriyi koruma işlevini bu kadar zor ve karmaşık hâle getiriyor?

Yapay zeka modellerinin, yüksek doğruluk ve performans için büyük veri setleri üzerinde eğitilmesi, bu veri grubuna ulaşmanın da çoğu zaman kişisel verilerin toplanmasını ve işlenmesini gerektirmesi…

Günümüzde kişisel verilerin çok çeşitli veri kaynaklarından toplanması ve bu kaynakların farklı düzeylerde güvenlik ve gizlilik standartlarına sahip olması…

Derin Öğrenme!

Yapay zeka, özellikle de derin öğrenme modellerinin genellikle işleyişinin, ne tür kişisel veri içerebileceğinin tam olarak anlaşılmaması…

Yapay zeka kullanımı ile ilgili uluslararası standartların ve yasal düzenlemelerin eksikliği…

Yapay zeka sistemlerinin, kötü niyetli kullanıcılar tarafından hedef alınabilme, saldırıya uğrama riski içermesi…

Yapay zeka alanındaki gelişmelerin dinamik doğasının, güvenlik ve gizlilik önlemlerinin sürekli güncellenmesini gerektirmesi…

Yapay zeka sistemlerinin ulusal sınırları aşan, küresel ölçekte çalışan doğası, farklı yargı bölgeleri arasında veri aktarımı yapması…

Bu çok boyutlu ve karmaşık durumu yazının başından beri savunduğum yenilikçilik ve teknolojik ilerlemeyi sağlarken kişisel mahremiyeti gözetme ilkesi ile yönetmek gerçekten çok zor. Ama insanlığın ilerlemesi bu zorlukları aşmak için bulduğu akılcı yöntemlerle mümkün olabiliyor. Teknoloji, hukuk ve etik uzmanlarını içine alan çok disiplinli ve işbirliği odaklı bir yaklaşımla gerekli düzenlemeleri oluşturmak mümkün. Bu noktada gözetilmesi gereken en temel prensipleri kısaca özetleyelim.

ChatGPT’nin popülerliği

Bir yapay zeka modelinin sadece işlevini yerine getirmek için gerekli olan verileri toplamasını sağlamak, gereksiz veri toplamayı engellemek, kişisel verileri anonimleştirmek
Yapay zeka sistemlerinin veri işleme süreçleri hakkında şeffaf olması, kullanıcılara verilerinin nasıl işlendiği konusunda açık bilgi sunması, kullanıcılara verileri üzerinde mümkün olan en fazla kontrolü sağlama imkanı sunması

Bir yapay zeka sisteminin toplu veri setlerinden öğrenirken kişisel veri gizliliğini koruması (diferansiyel gizlilik), bu prensibin modellerin eğitim süreçlerine entegre edilmesi
Ulusal ve uluslararası düzeyde, yapay zeka teknolojilerinin veri koruma ve gizlilikle uyumlu olmasını sağlayacak düzenlemelerin hayata geçirilmesi

Gelecek ve denge

ChatGPT’nin popülerlik kazanmasının ardından, Future of Life Enstitüsü, kamuya açık bir mektup yayınlayarak bu kadar gelişmiş bir yapay zeka sisteminin etki alanının çok büyük olabileceği ve çeşitli riskleri içerebileceğinden söz ederek, gerekli düzenlemelerin hayata geçirilme sürecinde, yapay zeka çalışmalarına altı ay kadar ara verilmesi çağrısında bulundu.

Söz konusu açık mektup bir çok akademisyen, düşünce önderi, Steve Wozniak ve Elon Musk gibi teknoloji devlerinin yöneticileri tarafından imzalandı. Avrupa Veri Koruma Kurulu, AB üye ülkeleri genelinde ChatGPT görev gücü oluşturuldu. Tüm bu gelişmeler bile bir denge mekanizmasının var olduğunu gösterdiği için bizce bu çok değerli.

Yapay zeka teknolojileri devrim niteliğinde bir seviyeye ulaşmış durumda, insanlığın bu noktadan geri dönmesi mümkün değil. Bu noktada teknolojik gelişmenin fayda odaklı kullanımı çok büyük bir potansiyel sunuyor. Önemli olan konuya bu ilerlemeyi desteklerken kişisel veri gizliliğini gözeten bir çerçevede yaklaşmak. Bunun, tüm paydaşlar için çok önemli bir sorumluluk olduğuna inanıyoruz. Bu yeni teknolojinin yapay geri zekalı olmaması dileği ile geleceğe umutla ve heyecanla bakmak istiyoruz…

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Adblock Detected

Merhaba. Sitemiz yoğun bir emeğin ürünüdür! Sitede dolaşmak için lütfen Reklam Engelleyicinizi Kapatın. Please Close The Ads Protector.