top of page

Türk Sağlık Mevzuatı AB Yapay Zekâ Yasasına Hazır mı?

Türk Sağlık Mevzuatı AB Yapay Zekâ Yasasına Hazır mı?


Yapay zekâ teknolojisinin sağlık alanında kullanımının artması, hem tıp etiği hem de hukuk bakımından yeni tartışmaları beraberinde getirdi. Avrupa Birliği, 2024 yılında yürürlüğe giren Yapay Zekâ Yasası (AI Act) ile bu alanda kapsamlı bir hukuki çerçeve oluşturdu. Yasa, risk temelli yaklaşımıyla sağlık uygulamalarını yüksek riskli sistemler kategorisine dahil etti. Peki, Türk sağlık mevzuatı bu dönüşüme ne kadar hazır? Bu soruya yanıt aramak, hem hasta güvenliği hem de teknolojik yeniliğin hukuki sınırlarını anlamak açısından önem taşıyor.


Avrupa Birliği Yapay Zekâ Yasası, “insan merkezli yapay zekâ” ilkesini temel alır. Bu ilke, özellikle tıbbi karar destek sistemleri gibi insan hayatını doğrudan etkileyen uygulamalarda, son karar merciinin her zaman insan (yani hekim) olması gerektiğini vurgular. Sağlık alanında kullanılan yapay zekâ sistemleri –örneğin tanı, tedavi planlaması veya klinik karar destek araçları– bu yasa kapsamında yüksek riskli kabul edilmektedir. Bu sistemlerin geliştirilmesi, kullanılması ve denetlenmesi sıkı teknik ve etik standartlara bağlanmıştır.

Türkiye’de ise henüz yapay zekâya özgü bir sağlık hukuku düzenlemesi bulunmamakta. 2021–2025 Ulusal Yapay Zekâ Stratejisi genel ilkeleri ortaya koymakla birlikte, somut yükümlülükleri belirlememektedir. Sağlık sektöründe yapay zekâ uygulamaları şu an için dolaylı olarak Kişisel Verilerin Korunması Kanunu (KVKK), Tıbbi Deontoloji Nizamnamesi, Hasta Hakları Yönetmeliği ve Sağlık Hizmetleri Temel Kanunu çerçevesinde değerlendirilmektedir. Ancak bu düzenlemeler, yapay zekânın otonom karar mekanizmalarını ya da algoritmik hatalardan doğacak hukuki sorumlulukları açık biçimde kapsamaz.

AB Yapay Zekâ Yasası’nın öngördüğü risk temelli sınıflandırma, Türk hukukunda henüz karşılık bulmamıştır. Örneğin bir tıbbi yapay zekâ yazılımının “yüksek riskli sistem” olarak tanımlanması, bu sistemin geliştiricisinden sağlayıcısına kadar tüm taraflara belirli yükümlülükler getirir: teknik belgelendirme, kalite yönetim sistemi (QMS) uygulaması, insan gözetimi ve veri şeffaflığı. Türkiye’de bu tür bir sertifikasyon veya denetim mekanizması bulunmadığından, tıbbi yazılımlar çoğu zaman “tıbbi cihaz” tanımının sınırında kalır. Bu da hukuki belirsizlik doğurur.

Bir diğer önemli fark veri yönetimi konusundadır. AB düzenlemesi, yapay zekâ sistemlerinin kullandığı verilerin izlenebilirliğini ve doğruluğunu denetim altına alır. Sağlık verileri gibi “özel nitelikli kişisel verilerin” kullanımı için katı kurallar öngörür. Türkiye’de KVKK benzer koruma sağlar, ancak yapay zekâ sistemlerinin kendi kendine öğrenme süreçlerinde bu verilerin nasıl anonimleştirileceği veya hangi durumda “yeni veri üretimi” sayılacağı konuları açık değildir. Bu durum hem hekimler hem de yazılım üreticileri açısından belirsiz bir sorumluluk alanı yaratır.

Etik ve hukuki açıdan en tartışmalı konulardan biri de insan denetimi ilkesidir. AB, insan gözetimi olmadan karar verebilen yapay zekâ sistemlerini tıbbi alanda yasaklamıştır. Türkiye’de ise hekim-yapay zekâ ilişkisinin sınırları belirlenmiş değildir. Örneğin, yanlış teşhis veren bir algoritma nedeniyle hasta zarara uğrarsa, bu durumda sorumluluk hekime mi, yazılım geliştiriciye mi, yoksa sağlık kurumuna mı ait olacaktır? Mevcut Borçlar Kanunu ve Ürün Güvenliği Mevzuatı bu soruları ancak kıyasen cevaplayabilir.

Bu açıdan bakıldığında, Türk sağlık mevzuatının AB’nin risk temelli sistemine uyum sağlayabilmesi için üç temel adım gerekmektedir:

  1. Tıbbi yapay zekâya özel bir tanım ve sınıflandırma yapılmalı, risk seviyesine göre izin ve denetim koşulları belirlenmelidir.

  2. Veri şeffaflığı ve algoritmik hesap verebilirlik ilkeleri mevzuata entegre edilmelidir.

  3. Hekim sorumluluğu kavramı yeniden yorumlanarak, yapay zekâ destekli karar süreçlerinde ortak sorumluluk ilkesi tanımlanmalıdır.


Türk sağlık mevzuatı, AB Yapay Zekâ Yasası’nın öngördüğü sistematik ve risk odaklı çerçeveye henüz hazır değildir. Mevcut düzenlemeler sağlık verisi koruması ve hasta hakları açısından güçlü olsa da, yapay zekânın dinamik doğasına uygun bir denetim modeli sunmaz. Ancak AB’nin yaklaşımı Türkiye için önemli bir referans olabilir. “İnsan merkezli yapay zekâ” ilkesi, hem etik hem de hukuki açıdan sağlık alanında güvenli dijital dönüşümün anahtarıdır.

Gelecekte Türk hukukunda yapılacak olası düzenlemeler, yalnızca teknolojik uyum değil, aynı zamanda hasta güvenliği, veri bütünlüğü ve hekim sorumluluğu arasında adil bir denge kurmayı hedeflemelidir. Çünkü yapay zekâ ne kadar gelişirse gelişsin, tıp biliminin merkezinde insan iradesi ve vicdanı var olmaya devam edecektir.


Av. Ayşe Gül Hanyaloğlu

bottom of page