Devrim KARTAL
Yapay Zeka Yasasında Neler Var ?
Avrupa Birliği, yapay zeka sistemlerinin karmaşıklıklarını ve zorluklarını ele almak amacıyla bir Yapay Zeka Yasası kabul etti. Bu yasa, yapay zeka teknolojilerinin sorumlu bir şekilde geliştirilmesi ve kullanılmasını sağlamak için çeşitli düzenleyici önlemler içeriyor. Önlemler arasında yapay zeka sistemlerinde şeffaflık gerekliliği, yüksek riskli yapay zeka sistemlerinin sıkı bir düzenleyici gözetimi, ve özellikle kamuya açık alanlarda gerçek zamanlı biyometrik gözetim teknolojilerinin kullanımına sıkı kısıtlamalar yer alıyor.
Ayrıca, Türkiye de bu konuda çalışmalar yapmakta ve yapay zeka alanında yeni bir yasa tasarısı ve regülasyonları üzerinde çalışıldığı belirtiliyor. Türkiye'nin hedeflerinden biri, Türkçe diliyle eğitilmiş büyük dil modelleri geliştirerek, kendi kültür ve toplumsal bakış açısına uygun modeller oluşturmak.
Bu yeni düzenlemeler, yapay zekanın kötüye kullanımını önlemek ve kişisel özgürlükleri korumak için tasarlanmıştır. Bunun yanı sıra, şeffaflık, risk yönetimi ve etik kullanım gibi kritik alanlara odaklanıyorlar. Bu yasalar, yapay zeka geliştiricilerine ve operatörlerine, sistemlerinin nasıl çalıştığı ve karar verme süreçlerinin ardındaki mantık hakkında açık ve anlaşılır bilgiler sağlama zorunluluğu getiriyor. Yüksek riskli yapay zeka sistemlerine de özel bir çerçeve oluşturularak, bu sistemlerin güvenli, güvenilir ve değerlere saygılı olmasını sağlıyorlar.
Robot Anayasası
Google, robot teknolojisinin yaygınlaşmasıyla birlikte, robotların kontrol edilebilirliği ve zarar verme riskini sınırlandırmak adına "Robot Anayasası" adı altında yeni bir dizi yönergeler oluşturdu. Google'ın hazırladığı "Robot Anayasası" ile ilgili kesin detaylar her ne kadar açıkça belirtilmese de, bu anayasanın temel amacının robot teknolojisini daha güvenli ve kontrollü bir şekilde kullanılmasını sağlamak olduğu anlaşılıyor. Bu anayasa, özellikle yapay zeka ve robot teknolojilerinde güvenlik ve etik konularını ele alıyor.
Yasa, robotların insanlara zarar vermemesi, tehlikeli görevlere kalkışmaması ve geniş yapay zeka modellerinin yasadışı faaliyetlere destek olmaması gibi güvenlik odaklı yönergeler içeriyor. Google, bu kuralların kısmen Isaac Asimov'un Üç Robot Yasası'ndan esinlendiğini ve bu kuralların robotların güvenli davranışlarını yönlendirmekte kullanıldığını belirtiyor.
Google, robot teknolojilerinin güvenliğini sağlamak için fiziksel güvenlik önlemleri almakla kalmayıp, insan denetimini ve robotların aşırı güç kullanımını engelleyen sistemleri de entegre ettiğini vurguluyor.
- Robot Anayasası, robotların aşırı güç uygulamasını engelleyen ve insan müdahalesiyle fiziksel olarak durdurulabilen güvenlik sistemlerinin önemini vurgulayabilir.
- Robotların, örneğin aşırıya kaçarak sahibinin zarar görmesine neden olacak durumları önlemek için etik kurallara ve güvenlik protokollerine uyması gerekebilir.
- AutoRT gibi sistemlerin kullanımı, robotların insanların amaçlarını anlamasına ve bu amaçlara uygun şekilde hareket etmesine yardımcı olabilir.
Bu adımlar, teknolojinin daha güvenilir ve kontrollü bir şekilde kullanılmasını hedefliyor.