1. Trang chủ
  2. » Luận Văn - Báo Cáo

Trách nhiệm dân sự trong Ứng dụng trí tuệ nhân tạo trong y tế theo pháp luật của Đức và pháp kinh nghiệm cho việt nam

101 0 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Trách nhiệm dân sự trong Ứng dụng trí tuệ nhân tạo trong y tế theo pháp luật của Đức và pháp kinh nghiệm cho việt nam
Tác giả Huỳnh Thị Yến Nguyệt
Người hướng dẫn PGS.TS Trần Việt Dũng
Trường học Trường Đại học Luật TP. Hồ Chí Minh
Chuyên ngành Luật học
Thể loại Luận văn Thạc sĩ Luật học
Năm xuất bản 2023
Thành phố TP. Hồ Chí Minh
Định dạng
Số trang 101
Dung lượng 5,5 MB

Cấu trúc

  • CHƯƠNG 1. TỔNG QUAN VỀ VIỆC ỨNG DỤNG TRÍ TUỆ NHÂN TẠO (17)
    • 1.1. Định nghĩa và vai trò của công nghệ AI trong y tế (17)
      • 1.1.1. Định nghĩa, phân loại công nghệ AI (17)
      • 1.1.2. Vai trò của công nghệ AI trong y tế (20)
    • 1.2. Thực tiễn việc ứng dụng công nghệ AI trong y tế tại một số quốc gia và Việt Nam (25)
      • 1.2.1. Thực tiễn việc ứng dụng công nghệ AI trong y tế tại một số quốc gia 19 1.2.2. Thực tiễn việc ứng dụng công nghệ AI trong y tế tại Việt Nam (25)
    • 1.3. Rủi ro khi ứng dụng AI trong y tế (30)
      • 1.3.1. Lỗi dữ liệu và thuật toán (31)
      • 1.3.2. Lỗi phần cứng (35)
      • 1.3.3. Lỗi trong tương tác với hệ thống AI (36)
    • 1.4. Sự cần thiết xác lập trách nhiệm dân sự đối với những hoạt động ứng dụng AI trong y tế (36)
      • 1.4.1. Đối tượng chịu trách nhiệm dân sự khi ứng dụng công nghệ AI gây thiệt hại (36)
      • 1.4.2. Quan điểm trái chiều về trách nhiệm dân sự khi ứng dụng AI trong y tế gây thiệt hại cho người bệnh (40)
  • CHƯƠNG 2. THỰC TIỄN PHÁP LUẬT CỦA ĐỨC VÀ PHÁP KHI XÁC ĐỊNH TRÁCH NHIỆM DÂN SỰ TRONG ỨNG DỤNG TRÍ TUỆ NHÂN TẠO TRONG Y TẾ - MỘT SỐ ĐỀ XUẤT CHO VIỆT NAM (46)
    • 2.1. Trách nhiệm dân sự của bác sĩ trong trường hợp ứng dụng AI trong y tế gây thiệt hại (46)
      • 2.1.1. Nghĩa vụ của bác sĩ khi ứng dụng AI trong khám, chữa bệnh (46)
      • 2.1.2. Xác định lỗi của bác sĩ khi ứng dụng AI gây thiệt hại cho bệnh nhân (52)
    • 2.2. Trách nhiệm dân sự của nhà sản xuất khi ứng dụng AI trong y tế gây thiệt hại cho bệnh nhân (63)
      • 2.2.1. Cơ chế xác định trách nhiệm dân sự của nhà sản xuất khi có thiệt hại xảy (63)
      • 2.2.2. Nghĩa vụ chứng minh "lỗi" của sản phẩm/nhà sản xuất khi có thiệt hại xảy ra cho bệnh nhân (73)
      • 2.2.3. Miễn trừ trách nhiệm đối với nhà sản xuất khi hệ thống AI gây thiệt hại (75)
    • 2.3. Trách nhiệm dân sự của người vận hành khi ứng dụng AI trong y tế gây thiệt hại cho bệnh nhân (78)
      • 2.3.1. Khái niệm người vận hành các hệ thống AI ứng dụng trong y tế (78)
      • 2.3.2. Định hướng xác định trách nhiệm dân sự của người vận hành trong trường hợp hệ thống AI ứng dụng vào y tế gây thiệt hại cho bệnh nhân (81)
    • 2.4. Một số giải pháp pháp lý cho pháp luật Việt Nam (84)

Nội dung

Một số chuyên ngành trong y khoa đã sử dụng những phần mềm mang AI như chẩn đoán hình ảnh, chẩn đoán bệnh, nội soi đường tiêu hóa, trong đó nổi bật là việc ứng dụng AI trong chẩn đoán hì

TỔNG QUAN VỀ VIỆC ỨNG DỤNG TRÍ TUỆ NHÂN TẠO

Định nghĩa và vai trò của công nghệ AI trong y tế

1.1.1 Định nghĩa, phân loại công nghệ AI

Trước khi tìm hiểu về một số vai trò cụ thể của công nghệ AI trong ngành y tế, ta cần hiểu về công nghệ AI hay chính xác hơn là hệ thống thiết bị y tế sử dụng công nghệ AI (hệ thống AI) là gì và nó được vận hành như thế nào

Trong khoa học máy tính, thuật ngữ "trí tuệ nhân tạo" thường được sử dụng để mô tả các máy móc (hoặc máy tính) có khả năng bắt chước các chức năng "nhận thức" mà con người thường phải liên kết với tâm trí, như "học tập" và "giải quyết vấn đề" 18 Có thể nói AI là một công nghệ mô phỏng các quá trình suy nghĩ và học tập của con người cho máy móc, đặc biệt là các hệ thống máy tính Các quá trình

15 Thuật ngữ “công nghệ AI” lần đầu tiên được giới thiệu bởi một nhóm nghiên cứu đứng đầu bởi John McCarthy (một nhà khoa học máy tính Mỹ) tại Hội nghị Dartmouth vào năm 1956; (Xem thêm Nils

J Nilsson (2010), The Quest for Artificial Intelligence, Cambridge University Press, tr 53)

16 WHO (2016), " Hệ sinh thái dữ liệu sức khỏe đang phát triển" (Evolving health data ecosystem) (xem thêm: https://www.who.int/ehealth/resources/ecosystem.pdf?ua=1, truy cập ngày 08/03/2023)

17 WHO guidance (2021), " Đạo đức và quản trị trí tuệ nhân tạo vì sức khỏe" (Ethics and governance of artificial intelligence for health), tr36

18 Kaplan, Andreas (2022), “Trí tuệ nhân tạo, kinh doanh và nền văn minh - Số phận của chúng ta được tạo ra từ máy móc" (Artificial Intelligence, Buiness and Civilization - Our Fate Made in Machines), Routledge, tr 34-35 này bao gồm việc học tập (thu thập thông tin và các quy tắc sử dụng thông tin), lập luận (sử dụng các quy tắc để đạt được kết luận gần đúng hoặc xác định), và tự sửa lỗi để từ đó đưa ra các giải pháp hiệu quả Hệ thống phải thể hiện bốn khả năng cốt lõi là nhận thức, hiểu biết, hành động và học tập 19 Hệ thống AI sẽ nhận thức môi trường dựa trên và thông qua các cảm biến như máy ảnh, micrô, cảm biến xúc giác ; thu thập, phân tích và diễn giải dữ liệu mà nó cảm nhận được, rút ra kết luận từ chúng và cuối cùng là thực hiện chúng 20

Theo định nghĩa về AI trong khuyến nghị của Hội đồng Trí tuệ nhân tạo (Council on Artificial Intelligence- OECD), "Công nghệ AI là một hệ thống hoạt động dựa trên máy với một tập hợp nhất định những mục tiêu do con người thiết lập Từ đó, hệ thống có thể đưa ra những dự đoán, khuyến nghị hoặc những quyết định ảnh hưởng đến môi trường thực tế cũng như môi trường ảo với các mức độ tự chủ khác nhau được con người thiết kế 21 Như vậy, hệ thống AI được hiểu là hệ thống thiết bị sử dụng các công nghệ có thể tự suy luận, đưa ra các hành động hoặc quyết định khi gặp các tình huống mới khác nhau như cách con người hay thậm chí động vật có thể hành động 22

Cơ sở của các hệ thống AI dựa trên một thuật toán, được dịch thành mã máy tính mang các hướng dẫn để nhanh chóng phân tích và chuyển đổi dữ liệu thành kết luận, thông tin hoặc các kết quả đầu ra 23 Trong đó, học máy được xem là một tập hợp con của công nghệ AI Công nghệ học máy cho phép các hệ thống máy “học” tự động từ dữ liệu để giải quyết những vấn đề cụ thể Các thuật toán của học máy là các chương trình máy tính có khả năng học hỏi về cách hoàn thành các nhiệm vụ và cách cải thiện hiệu suất theo thời gian Chúng tạo cơ sở cho mọi thứ mà máy tính có thể làm và là khía cạnh cơ bản của tất cả các hệ thống AI 24

19 Bitkom (2017): Trí tuệ nhân tạo - Tầm quan trọng về kinh tế, Những thách thức xã hội, Trách nhiệm của con người", DFKI, tr.29

20 Heg-ki- Nhóm chuyên gia cao cấp (2019), "Định nghĩa AI: kỹ năng chính và lĩnh vực khoa học"

(Eine definition der ki: wichtigste fọhigkeiten und wissenschaftsgebiete), Ủy ban Chõu Âu, tr.1 (xem tại: https://elektro.at/wp-content/uploads/2019/10/EU_Definition-KI.pdf)

22 Hao K (2018), " AI là gì? Chúng tôi đã vẽ cho bạn một sơ đồ để giải quyết" (What is AI? We drew you a flowchart to work it out), MIT Technology Revies,

(xemtại:https://www.technologyreview.com/2018/11/10/139137/is-this-ai-we-drew-you-a-flowchart-to- work-it-out//, truy cập ngày 13/2/2023)

24 House of Lords Select Committee on Artificial Intelligence (2017), "AI ở Anh: Sẵn sàng,

Sẵn sàng và có khả năng? (AI in the UK: Ready,Willing and Able?), Report of Session, số 19, tr.14

Học máy sẽ dựa trên việc sử dụng các kỹ thuật của mô hình thống kê và toán học để tìm ra mẫu trong một lượng dữ liệu khổng lồ; xác định và phân tích dữ liệu Các mẫu đã học sau đó được áp dụng để thực hiện hoặc hướng dẫn các nhiệm vụ nhất định cũng như thực hiện phỏng đoán 25 Học máy có thể được phân loại theo cách nó học từ dữ liệu được nạp vào là: (i) học có giám sát, (ii) học không giám sát và (iii) học tăng cường Trong phương pháp học có giám sát, phương pháp phổ biến nhất, tập dữ liệu sẽ được gắn nhãn đầu vào và đầu ra như mong muốn (có câu trả lời) để " huấn luyện" cho thuật toán Quá trình thuật toán học từ các dữ liệu đầu vào cũng có thể được xem là một "giáo viên" giám sát quá trình học Sau đó, từ dữ liệu được nạp từ các đầu vào khác nhau, mô hình sẽ suy ra một chức năng (với những dữ liệu có thể được sử dụng) để dự đoán đầu ra Phương pháp này phù hợp để giải quyết những vấn đề như dự đoán và phân loại

Trong phương pháp học không giám sát, dữ liệu nạp vào sẽ không được dán nhãn (đây được xem là một tập hợp "biến ngẫu nhiên") và máy sẽ tìm kiếm bất cứ mẫu nào phù hợp với các quan sát mà nó được thiết lập Điểm khác biệt ở đây là ở việc đầu ra đúng tương ứng với mỗi đầu vào sẽ không được biết trước như học máy có giám sát (mẫu bị ẩn) 26 Phương pháp này phù hợp để phân cụm và tìm mối liên hệ giữa các mẫu

Trong phương pháp học tăng cường, máy sẽ được học bằng cách "thử" và

"sai" để đạt được mục tiêu Theo đó máy sẽ được “thưởng” hoặc bị “phạt”, tùy thuộc vào việc suy luận của nó giúp đạt được hoặc cản trở việc đạt được một mục tiêu 27 Với phương pháp này, hệ thống AI có thể tự phát triển để tìm được mục tiêu ví dụ như tìm nốt sần trên những hình ảnh y tế như phim chụp X-quang, CT hay hình ảnh siêu âm

Học sâu (Deep Learning) có thể được coi là một tập hợp con của học máy Đây là một lĩnh vực dựa trên việc học hỏi và tự cải thiện bằng cách kiểm tra các thuật toán máy tính Trong khi học máy sử dụng các khái niệm, dữ liệu đơn giản hơn, thì học sâu hoạt động với các mạng thần kinh nhân tạo (Artificial neuron

26 Hinton, Geoffrey; Sejnowski, Terrence (1999), " Học tập không giám sát: Nền tảng của tính toán thần kinh" (Unsupervised Learning: Foundations of Neural Computation), MIT Press

(xem tại: https://mitpress.mit.edu/9780262581684/unsupervised-learning/, truy cập ngày 24/05/2023)

27 Hao K (2017)," Học máy là gì? Các thuật toán học máy tìm và áp dụng các mẫu trong dữ liệu

Và họ gần như điều hành thế giới" (What is machine learning? Machine-learning algorithms find and apply patterns in data), MIT Technology Revies

(xem tại: https://www.technologyreview.com/2018/11/17/103781/what-is-machine-learning-we-drew-you- anotherflowchart/, truy cập ngày 13/2/2023) netwwork)- được thiết kế tương tự mạng thần kinh trong bộ não con người để "bắt chước" và học hỏi cách suy nghĩ của con người Học sâu nổi bật với khả năng xử lý một lượng dữ liệu lớn (Big Data) với các mạng thần kinh lớn và phức tạp hơn, cho phép máy tính quan sát, học hỏi và phản ứng với các tình huống phức tạp nhanh hơn con người Học sâu đã hỗ trợ phân loại hình ảnh, dịch ngôn ngữ, nhận dạng giọng nói Nó có thể được sử dụng để giải quyết bất kỳ vấn đề nhận dạng mẫu nào mà không cần sự can thiệp của con người 28

1.1.2 Vai trò của công nghệ AI trong y tế Ứng dụng công nghệ AI trong ngành y tế đã trở nên phổ biến trong những năm gần đây ở nhiều nơi trên thế giới Việc ứng dụng công nghệ AI vào chăm sóc sức khỏe về cơ bản là việc sử dụng các thuật toán và phần mềm công nghệ cũng như nguồn dữ liệu lớn (Big data) để mô phỏng nhận thức của con người đối với một ca lâm sàng trong việc phân tích, giải thích, hiểu các dữ liệu y tế và đưa ra các liệu trình chăm sóc sức khỏe cho người bệnh tốt hơn 29 Trên nền tảng là các thuật toán, mã máy tính với các hướng dẫn để dịch dữ liệu thành kết luận, thông tin hoặc kết quả đầu ra nên khả năng của học máy rất đa dạng như nhận dạng mẫu, ngôn ngữ tự nhiên, xử lý tín hiệu 30 , hệ thống chuyên gia 31 hay hệ thống tự học 32 Một hệ thống

AI có thể xuất hiện dưới nhiều hình thức khác nhau Nó có thể hoàn toàn dựa trên phần mềm (ví dụ: trợ lý giọng nói, hệ thống nhận dạng hình ảnh) hoặc được tích hợp vào phần cứng (ví dụ: robot phẫu thuật) 33

28 Xem tại: https://www.simplilearn.com/tutorials/deep-learning-tutorial/what-is-deep-learning, truy cập ngày 13/02/2023)

29 Sỹ Kiên, "Ứng dụng Trí tuệ nhân tạo trong khám chữa bệnh" (xem tại: https://dangcongsan.vn/khoa-hoc- va-cong-nghe-voi-su-nghiep-cong-nghiep-hoa-hien-dai-hoa-dat-nuoc/diem-nhan-khoa-hoc-va-cong- nghe/ung-dung-tri-tue-nhan-tao-trong-kham-chua-benh-566810.html, truy cập ngày 27/03/2023)

30 Hao K, tlđd (27) (xem tại:https://www.technologyreview.com/2018/11/17/103781/what-is-machine- learning-we-drew-you-anotherflowchart/, truy cập ngày 13/2/2023)

Thực tiễn việc ứng dụng công nghệ AI trong y tế tại một số quốc gia và Việt Nam

1.2.1 Thực tiễn việc ứng dụng công nghệ AI trong y tế tại một số quốc gia Với những lợi ích to lớn, công nghệ AI đã được đưa vào ứng dụng tại nhiều nơi trên thế giới trong nhiều lĩnh vực y tế, cụ thể như:

- Trong hỗ trợ chẩn đoán hình ảnh y tế: Tại khoa X- quang tại Bệnh viện Đại học Quốc gia Seoul, Hàn Quốc đã nghiên cứu và phát triển một thuật toán AI gọi là DLAD (Deep learning Automatic Detection) để tiến hành phân tích hình ảnh chụp X-quang ngực cũng như phát hiện sự phát triển bất thường của tế bào (nguyên nhân gây ra bệnh ung thư) Phân tích cho thấy tỷ lệ phát hiện các nốt phổi có thể điều trị được trên phim chụp X-quang ngực cao hơn khi có sự hỗ trợ của AI (0,59%) so với khi không có sự hỗ trợ của AI (0,25%) AI có thể hoạt động nhất quán trên các quần thể khác nhau, ngay cả đối với những người bị bệnh hoặc phổi sau phẫu thuật 50 Tương tự, Bộ phận Deep Mind của Google và Đại học Northwestern đã nghiên cứu đã tạo ra một mô hình AI ba chiều để đánh giá những khu vực cần quan tâm trong phổi Sử dụng cả các lần quét hiện tại và những lần quét từ trước khi được chẩn đoán ung thư phổi, mô hình cho thấy độ chính xác cao (94%) trong việc phát hiện

50 Mo Goo (2023), "Trí tuệ nhân tạo cải thiện phát hiện nốt phổi trên X-quan ngực" (AI improves lung nodule detection on chest X-ray), RSNA, (xem thêm: https://www.rsna.org/news/2023/february/ai-improves-lung- nodule-detection, truy cập ngày 08/03/2023) các nốt ung thư; vượt trội hơn so với sáu bác sĩ X quang đồng thời giảm số lượng dương tính giả và âm tính giả 51

Tại Mỹ, phần mềm AI hỗ trợ chẩn đoán, phát hiện ung thư phổi đã được Cục quản lý thực phẩm và dược phẩm Hoa Kỳ (Food and Drug Administration- FDA) cấp phép và sử dụng như phần mềm DCNN (Deep Convolutional Neural Network– based) Tại Đức, hệ thống AI Merantix cũng được ứng dụng để phát hiện ung thư phổi qua hình ảnh CT Tại Pháp đã phát triển và ứng dụng hệ thống AI mang tên Therapixel để hỗ trợ phát hiện ung thư vú thông qua chụp nhũ ảnh Năm 2018, thuật toán được phát triển bởi các nhà nghiên cứu của Google AI Healthcare là LYNA (Lymph Node Assistant) giúp phân tích mẫu bệnh phẩm nhuốm màu để xác định khối u ung thư vú di căn từ hạch bạch huyết Kết quả cho thấy hệ thống đã phát hiện và xác định được các vùng khả nghi mà bác sĩ bỏ qua trong các mẫu sinh thiết được đưa ra với độ chính xác lên đến 99% 52

Một ứng dụng nữa thể hiện vai trò của AI trong hỗ trợ chẩn đoán hình ảnh y tế là ứng dụng Aidoc có khả năng đánh dấu tình trạng xuất huyết nội sọ cấp tính và tình trạng chảy máu não sọ thông qua phim chụp CT Bên cạnh đó, AI cũng phát huy vai trò của mình trong hỗ trợ chẩn đoán ung thư đại tràng, ung thư cổ tử cung Tại Đại học Tulane, các nhà nghiên cứu đã phát hiện ra rằng AI có thể phát hiện và chẩn đoán chính xác ung thư đại trực tràng bằng cách phân tích các bản quét mô tốt hơn các nhà giải phẫu bệnh 53

- Trong hỗ trợ chẩn đoán bệnh: Bệnh viện Mắt Moorfield ở London đã đào tạo công nghệ học máy của AI trên hàng nghìn bản quét mắt phi cá nhân hóa lịch sử để xác định các dấu hiệu của bệnh về mắt và công nghệ AI này có thể đề xuất quyết định gợi ý chính xác cho hơn 50 bệnh về mắt với độ chính xác 94%, phù hợp với các chuyên gia về mắt hàng đầu thế giới Công nghệ này đã cho phép các chuyên gia chăm sóc sức khỏe xác định tình trạng bệnh sớm hơn và ưu tiên điều trị cho bệnh nhân trước khi tổn thương mắt không thể phục hồi xảy ra 54

51 Brandon Harper (2022), "Phát hiện ung thư phổi với trí tuệ nhân tạo: Những khó khăn về mặt kĩ thuật " (Detecting Lung cancer with artificial intelligence: Technical Technologies), (truy cập: https://www.oak- tree.tech/articles/b2b2022-lung-cancer01, ngày 8/3/2023)

53 Erin McNemar (2022), " Trí tuệ nhân tạo có thể thay đổi hình ảnh y tế như thế nào" (How can artificial intelligence can change medical imaging), Health IT Analytics

(xem thêm: https://healthitanalytics.com/features/how-can-artificial-intelligence-change-medical-imaging, truy cập ngày 1/3/2023)

54 S Gibbs (2018), ‘Công cụ trí tuệ nhân tạo ‘giỏi như chuyên gia’ trong việc phát hiện các vấn đề về mắt" (Artificial intelligence tool ‘as good as experts’ at detecting eye problems), Nature Medicine, tr.1342–1350

Trong chẩn đoán da liễu, AI cũng thể hiện khả năng phát hiện sớm và chính xác bằng cách sử dụng mạng thần kinh tích chập (CNN) và thuật toán học sâu Các chuyên gia của Đức, Mỹ và Pháp đã xây dựng một hệ thống AI có khả năng phân biệt được những tổn thương ác tính trên da so với những khối u lành với lượng dữ liệu hơn 100.000 hình ảnh Về kết quả tổng thể, tỉ lệ các chuyên gia da liễu chẩn đoán chính xác qua hình ảnh những trường hợp bị ung thư da là 86,6%, trong khi tỉ lệ chẩn đoán chính xác của AI là 95% Hệ thống Ultromics - hỗ trợ bởi AI (được phát triển và ứng dụng bởi bệnh việc John Radcliffe ở Anh) giúp các bác sĩ tim mạch chẩn đoán các bệnh về tim chính xác hơn 55 Hay phần mềm tích hợp AI để cảnh báo đột quỵ Rapid đã được Cục quản lý thực phẩm và dược phẩm Hoa Kỳ (FDA) của Mỹ cấp phép và sử dụng rộng rãi tại một số quốc gia trong đó có Việt Nam

- Trong hỗ trợ điều trị bệnh: Phần mềm “IBM Watson for Oncology” do Tập đoàn IBM của Mỹ xây dựng dựa trên nền tảng dữ liệu lớn, hiện nay đã được triển khai áp dụng ở 230 bệnh viện của 13 nước trên thế giới như Mỹ, Trung Quốc, Ấn Độ, Hàn Quốc, Thái Lan được cho là có sự hỗ trợ trong việc phân loại khối u theo loại di truyền, qua đó gợi ý và cho phép bác sĩ đưa ra các phương pháp điều trị hiệu quả hơn với bệnh nhân

- Trong hỗ trợ phẫu thuật: Hiện nay, Davinci là robot phẫu thuật tích hợp AI Davinci đã được FDA của Mỹ cấp phép và sử dụng rộng rãi tại Mỹ, Châu Âu, Nhật Bản và tại Việt Nam Cấu trúc "cánh tay 7 bậc" cho phép các bác sĩ thực hiện các ca phẫu thuật nội soi hiện đại với độ chính xác cao và chỉ yêu cầu các lỗ rạch có đường kính 1 cm trên cơ thể người bệnh; robot còn được trang bị bộ nhớ dung lượng cao cho phép nhớ nhiều vị trí một cách chính xác và cho phép thay đổi dụng cụ phẫu thuật một cách nhanh chóng và chính xác trong quá trình phẫu thuật Màn hình 3D của robot cho phép bác sĩ quan sát toàn bộ vùng được giải phẫu bên trong cơ thể với độ phân giải cao Theo đánh giá, robot da Vinci cho phép giảm thời gian phẫu thuật xuống chỉ còn một nửa, giúp cho quá trình hồi sức trở nên nhanh hơn, giảm nguy cơ mất máu và giảm sự đau đớn cho các bệnh nhân sau khi phẫu thuật Đặc biệt, nó cho phép giảm nguy cơ nhiễm khuẩn xuống chỉ còn 2-3%, gần như là bằng 0 56 Tại

(xem thêm: https://www.theguardian.com/technology/2018/aug/13/new-artificial-intelligence-tool-can- detect-eye-problems-as-well-as-experts, truy cập lần cuối ngày 31/10/2023)

56 Xem thêm: https://www.vinmec.com/vi/tin-tuc/thong-tin-suc-khoe/can-canh-robot-phau-thuat-hien-dai-co- mat-tai-viet-nam/, truy cập lần cuối ngày 31/10/2023

Mỹ, robot kết hợp AI mang tên Star đã tự mình phẫu thuật ruột lợn mà không cần đến sự hướng dẫn của bác sĩ và cho một kết quả ấn tượng

Theo tờ Science Robotics, robot Star đã thể hiện mức độ phẫu thuật tốt trong suốt thời gian tiến hành phẫu thuật, dù quá trình này đòi hỏi độ chính xác cao cùng các thao tác lặp đi lặp lại Robot Star hiện nay đã có khả năng nội soi nối hai đầu ruột- một trong những nhiệm vụ phức tạp và tinh vi nhất trong phẫu thuật, đòi hỏi bác sĩ phẫu thuật phải dùng chỉ khâu với độ chính xác và nhất quán cao bởi chỉ một cử động nhẹ ở tay hoặc đường khâu không đúng chỗ cũng có thể dẫn đến rò rỉ khiến bệnh nhân bị biến chứng tử vong Star có hệ thống hướng dẫn thị giác cho phép cải thiện độ chính xác của phẫu thuật, bao gồm các công cụ khâu chuyên dụng và hệ thống hình ảnh cung cấp hình ảnh chính xác hơn về lĩnh vực phẫu thuật Robot Star là hệ thống robot đầu tiên có khả năng lập kế hoạch, thích ứng và thực hiện phẫu thuật trong mô mềm với sự can thiệp tối thiểu của con người 57

1.2.2 Thực tiễn việc ứng dụng công nghệ AI trong y tế tại Việt Nam

Hiện nay tại Việt Nam, AI cũng được ứng dụng khá phổ biến và mang lại những ý nghĩa quan trọng, đặc biệt trong việc hỗ trợ chẩn đoán sớm ung thư thông qua chẩn đoán lâm sàng và cận lâm sàng và trong hỗ trợ phẫu thuật bằng robot

Rủi ro khi ứng dụng AI trong y tế

Mặc dù công nghệ AI mang lại nhiều sự ưu việt và tính hiệu quả, cũng cần phải lưu ý tới một số rủi ro trong việc ứng dụng AI, đặc biệt trong ngành y tế khi nó có ảnh hưởng tới sức khỏe của con người Những rủi ro này có thể kể đến từ dữ

61 Ứng dụng phần mềm trí tuệ nhân tạo Rapid điều trị nhồi máu não đến sau 6 giờ tại bệnh viện nhân dân 115 (xem thêm: https://benhvien115.com.vn/kien-thuc-y-khoa-/ung-dung-phan-mem-tri-tue-nhan-tao-rapid-dieu- tri-nhoi-mau-nao-den-sau-6-gio-tai-benh-vien-nhan-dan-115/20200219020458742, truy cập ngày 04/04/2023)

62 Tăng Chí Thượng 2022, tlđd (8), tr46 liệu, thuật toán đào tạo AI, lỗi kỹ thuật liên quan đến bộ phận máy móc tích hợp trong các hệ thống AI 63 cũng như rủi ro trong việc tương tác với hệ thống AI

1.3.1 Lỗi dữ liệu và thuật toán

- Dữ liệu đầu vào không chính xác hoặc không đầy đủ: Hệ thống AI vận hành trên một lượng dữ liệu, đặc biệt là đối với thuật toán học sâu càng đòi hỏi một lượng lớn dữ liệu đầu vào Một khi dữ liệu đầu vào để huấn luyện thuật toán không đủ hoặc không chính xác có thể dẫn đến những giải pháp lâm sàng do hệ thống AI cung cấp có vấn đề, gây hại cho bệnh nhân khi bác sĩ sử dụng nó trong quá trình chẩn đoán 64 Với việc cung cấp dữ liệu đầu vào không chính xác, các phần mềm hỗ trợ chẩn đoán ứng dụng AI có thể đưa ra kết quả âm tính giả, theo đó nó có thể bỏ sót các dấu hiệu của bệnh trong quá trình chẩn đoán; kết quả dương tính giả, theo đó người khỏe mạnh bị thuật toán AI phân loại không chính xác thành bệnh; sự can thiệp không phù hợp do chẩn đoán không chính xác hoặc ưu tiên can thiệp không chính xác đối với những mặt bệnh cấp cứu

Bên cạnh đó, dù các nhà phát triển AI có quyền truy cập vào các bộ dữ liệu quy mô lớn với đủ chất lượng để đào tạo các công nghệ AI của họ, thì các lỗi về mặt dữ liệu vẫn có thể xảy ra khi ứng dụng AI trong thực hành lâm sàng Cụ thể các dự đoán AI có thể bị ảnh hưởng đáng kể do sự nhiễu dữ liệu đầu vào trong quá trình thu thập Đối với quét siêu âm, các hình ảnh siêu âm được thu thập có thể bị ảnh hưởng bởi cách chụp thiếu chính xác (điều này phụ thuộc vào kinh nghiệm của người thực hiện, sự hợp tác của bệnh nhân và bối cảnh lâm sàng như khi siêu âm những trường hợp cấp cứu) Với trường hợp này, bác sĩ diễn giải có thể hiểu sự nhiễu này do một số yếu tố kĩ thuật nhưng với hệ thống AI thì không

Trong chuyên đề "Artificial Intelligence in healthcare" năm 2019 của nhóm tác giả thuộc Academy of Medical Royal Colleges có minh họa một lỗi thường gặp của hệ thống AI do cơ sở dữ liệu không đầy đủ, cụ thể như sau:" Một thuật toán AI được thiết kế để dự đoán bệnh nhân viêm phổi nào có thể được xuất viện và điều trị một cách an toàn như bệnh nhân ngoại trú (thông qua học máy) Theo đó, lỗi không chính xác đã xảy ra khi thuật toán AI cho rằng những bệnh nhân viêm phổi có tiền sử hen suyễn thì ít có nguy cơ tử vong hơn Điều này là do dữ liệu huấn luyện ban đầu (bệnh nhân hen suyễn thường đến khoa cấp cứu (ICU), và được chăm sóc tích cực hơn và do đó ít có khả năng tử vong Tuy nhiên, thuật toán AI không hiểu được

64 STOA, tlđd (12), tr.50 điều này và sử dụng quy tắc rằng nếu ai đó bị viêm phổi kèm theo tiền căn hen suyễn, thì họ có khả năng ít tử vong hơn và có khả năng được điều trị như một bệnh nhân ngoại trú 65

- Sự thay đổi tập dữ liệu đào tạo ban đầu: Mặt khác, việc phân loại sai của hệ thống AI có thể xuất hiện do "sự thay đổi tập dữ liệu" (theo Subbaswamy và cộng sự, 2020) Đây là một vấn đề phổ biến trong học máy, xảy ra khi có sự thay đổi trong hệ thống thống kê của dữ liệu thực hành lâm sàng, dù rất ít so với phân phối ban đầu của dữ liệu được sử dụng để đào tạo AI thuật toán

Theo nghiên cứu của Campello và cộng sự năm 2020 đã chỉ ra rằng các mô hình AI được đào tạo về quét hình ảnh cộng hưởng từ tim (MRI) từ hai máy quét Siemens và Philips sẽ mất độ chính xác khi áp dụng cho dữ liệu MRI thu được từ các máy khác như General Electric và Canon Trong một ví dụ khác, công ty DeepMind đã phát triển một mô hình học sâu được đào tạo trên một tập dữ liệu lớn để chẩn đoán tự động các bệnh võng mạc từ chụp cắt lớp kết hợp quang học (OCT) và hệ thống AI đã nhầm lẫn khi áp dụng cho các hình ảnh thu được từ một máy khác với máy ban đầu sử dụng để thu thập dữ liệu ở giai đoạn đào tạo AI, với mức độ lỗi chẩn đoán tăng từ 5,5% lên 46%

Cuối cùng, các dự đoán có thể bị sai do thuật toán AI khó thích ứng với những thay đổi bất ngờ trong môi trường và bối cảnh lâm sàng thực tế mà chúng được áp dụng Các nhà nghiên cứu tại Trường Y Harvard đã mô tả một ví dụ hay trong lĩnh vực AI cho hình ảnh y tế (Yu & Kohane, 2019) Cụ thể, họ xây dựng thử một hệ thống AI được đào tạo để phát hiện bóng mờ hoặc các điểm đặc trên hình ảnh chụp X-quang ngực (có liên quan đến các tổn thương nghiêm trọng như ung thư phổi) Sau đó, đưa ra một số tình huống mà AI có thể dự đoán sai như kỹ thuật viên chụp X-quang để các đầu nối ECG dính trên ngực bệnh nhân hoặc bệnh nhân đeo nhẫn cưới và đặt tay lên trên ngực của họ trong quá trình quét Trong những tình huống này, mô hình AI đã nhầm những điểm này là một trong những tổn thương ở ngực, dẫn đến kết quả dương tính giả 66

- Sự thiên vị, bất bình đẳng trong dữ liệu: Ngoài nguy cơ sai lệch trong dữ liệu, sự bất bình đẳng trong dữ liệu cũng là một rủi ro khác của những phần mềm

AI Sự sai lệch và mất cân bằng trong các bộ dữ liệu này được tạo nên do những

65 Xem thêm: https://medinet.gov.vn/cai-cach-hanh-chinh-y-te-thong-minh/su-dung-tri-tue-nhan-tao-trong-y- te-co-nguy-co-xay-ra-su-co-hay-khong-so-y-te-h-cmobile4714-18646.aspx, truy cập ngày 16/03/2023

66 STOA, tlđd (12), tr.61 thành kiến phổ biến như địa lý, cơ sở kinh tế xã hội, dân tộc, giới tính, độ tuổi hay yếu tố chủ quan như những thành kiến của con người Và theo đó, hệ thống AI có thể sẽ không khả dụng cho một nhóm dân số cụ thể - các nhóm ít được đại diện và có thể dẫn đến sự bất bình đẳng về chăm sóc sức khỏe

Khi có sự thiếu đại diện của một số nhóm nhất định trong bộ dữ liệu, thuật toán không thể tìm hiểu và dự đoán chính xác cho nhóm đó Như việc sự chẩn đoán chính xác đối với các bệnh về da khác nhau giữa các loại da sẽ giảm khi áp dụng trên những vùng da sẫm màu do hệ thống chẩn đoán chủ yếu học hỏi từ hình ảnh của da sáng màu Khi xem xét các bộ dữ liệu hình ảnh da có sẵn được sử dụng để phát triển các thuật toán học máy để chẩn đoán ung thư da đã tìm thấy sự phân bố địa lý không đồng đều giữa các bộ dữ liệu khi chỉ có một bộ dữ liệu có nguồn gốc từ Châu Á, hai từ Nam Mỹ và không có từ Châu Phi Trong khi khối u ác tính có thể trên các tông màu da khác nhau sẽ cho những biểu hiện khác nhau Vấn đề đặt ra là nếu không có đủ hình ảnh tổn thương da (đặc biệt trên vùng da sẫm màu) được nhập vào hệ thống AI, thì có thể dẫn đến sai sót và chẩn đoán muộn 67

Tương tự, thuật toán học máy cho da phát hiện ung thư đã được đào tạo quá thường xuyên trên các bộ dữ liệu có độ sai lệch cao như Hợp tác hình ảnh da quốc tế, một trong những cơ sở dữ liệu truy cập mở được sử dụng rộng rãi nhất về các tổn thương da – chứa hình ảnh từ hầu hết các bệnh nhân có làn da trắng ở Hoa Kỳ , Châu Âu và Úc Các mô hình chẩn đoán chỉ được đào tạo trên các nhóm da trắng có thể gây bất lợi cho quá trình chẩn đoán các tổn thương khối u ác tính xuất hiện trên những người da sẫm màu 68

Sự cần thiết xác lập trách nhiệm dân sự đối với những hoạt động ứng dụng AI trong y tế

1.4.1 Đối tượng chịu trách nhiệm dân sự khi ứng dụng công nghệ AI gây thiệt hại

Việc hệ thống AI được ứng dụng trong ngành y tế sẽ đặt ra đặt ra nhiều vấn đề pháp lý khác nhau khi bản chất quan hệ giữa bệnh nhân và bác sĩ đã có những thay đổi với sự tham gia của AI Đặc biệt liên quan tới trách nhiệm dân sự khi việc ứng dụng hệ thống AI gây thiệt hại cho bệnh nhân Trong quá trình khám chữa bệnh, nếu bác sĩ đưa ra quyết định sai và ảnh hưởng tiêu cực tới bệnh nhân thì họ sẽ

71 Homa Alemzadeh, “Các sự kiện bất lợi trong phẫu thuật bằng robot: Nghiên cứu hồi cứu về dữ liệu của FDA trong 14 năm” (Adverse Events in Robotic Surgery: A Retrospective Study of 14 Years of FDA Data (Truy cập: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4838256/, ngày 20/03/2023)

72 Herbert Zech, Isabelle Céline Hünefeld (2023), "Sử dụng AI trong y học: Trách nhiệm pháp lý và bảo hiểm" (Einsatz von KI in der Medizin: Haftung und Versicherung), MedR, số 41, tr.3

74 "Sử dụng trí tuệ nhân tạo trong y tế có nguy cơ xảy ra sự cố hay không" (xem thêm: https://medinet.gov.vn/cai-cach-hanh-chinh-y-te-thong-minh/su-dung-tri-tue-nhan-tao-trong-y-te-co-nguy- co-xay-ra-su-co-hay-khong-so-y-te-h-cmobile4714-18646.aspx, truy cập ngày 08/04/2023) phải chịu trách nhiệm cho quyết định của mình 75 Tuy nhiên, trách nhiệm đối với quyết định của bác sĩ có liên quan đến AI thì vẫn chưa được pháp luật quy định rõ ràng Ai sẽ là người chịu trách nhiệm nếu quyết định của một thuật toán dẫn đến thiêt hại cho bệnh nhân? Nhà sản xuất phát triển hệ thống AI; các chuyên gia chăm sóc sức khỏe hay bên vận hành hệ thống AI? Quá trình ứng dụng AI trong chăm sóc sức khỏe, thường có ba bên tham gia:

- Bên sử dụng hệ thống AI (bác sĩ trực tiếp điều trị);

- Bên sản xuất hệ thống AI; và

- Bên vận hành hệ thống AI (bệnh viện/phòng khám)

Bên sử dụng hệ thống AI chịu trách nhiệm đưa ra quyết định việc chăm sóc và điều trị cho bệnh nhân, có thể liên quan đến việc sử dụng hệ thống AI để hỗ trợ chẩn đoán hoặc lập kế hoạch điều trị Họ phải đảm bảo rằng hệ thống AI được sử dụng một cách an toàn và phù hợp cũng như kết quả được diễn giải chính xác và có thể phải chịu trách nhiệm về bất kỳ tác hại nào gây ra cho bệnh nhân 76

Bên sản xuất hệ thống AI chịu trách nhiệm thiết kế, phát triển và thử nghiệm hệ thống để đảm bảo rằng hệ thống an toàn và hiệu quả cho mục đích sử dụng Họ cũng phải cung cấp đầy đủ hướng dẫn sử dụng và tài liệu đào tạo để đảm bảo rằng bên vận hành có thể sử dụng hệ thống một cách chính xác Nếu hệ thống

AI có lỗi tồn tại và gây thiệt hại cho bệnh nhân, bên sản xuất có thể phải chịu trách nhiệm pháp lý 77

Bên vận hành hệ thống AI chịu trách nhiệm vận hành hệ thống một cách chính xác Họ cần phải có các biện pháp để đảm bảo rằng hệ thống được sử dụng an toàn và phù hợp Nếu hệ thống AI gây thiệt hại cho bệnh nhân, họ cũng có thể phải chịu trách nhiệm pháp lý 78

Về mặt lý thuyết, hệ thống AI được cho là công cụ phát triển vượt trội nhưng vẫn có thể có lỗi dẫn đến việc đưa ra các quyết định thiếu chính xác và gây

75 Điều 584 - Bộ luật Dân sự 2015 (BLDS 2015)

76 "Trí tuệ nhân tạo trong chăm sóc sức khỏe: Quá khứ, hiện tại và tương lai" (Artificial Intelligence in healthcare: Past, present and future), Journal of Medical System

(truy cập: https://link.springer.com/article/10.1007/s10916-018-1024-7, ngày 10/04/2023)

77 "AI về thiết bị y tế: Tổng quan về các quy định và thách thức hiện tại " (Medical Device AI: An overview of Current Regulations and Challenges), Journal of Medical Internet Research

(truy cập: https://www.jmir.org/2020/10/e20423/, ngày 10/04/2023)

78 "Những cân nhắc về đạo đức và pháp lý đối với các nhà cung cấp dịch vụ chăm sóc sức khỏe sử dụng trí tuệ nhân tạo" (Ethical and Legal Considerations for Healthcare Providers Using Artificial Intelligence",

Journal of the American Medical Association)

(xem thêm: https://jamanetwork.com/journals/jama/fullarticle/2768590, truy cập ngày 10/04/2023) tổn hại cho bệnh nhân Đối với các "hệ thống chuyên gia" - thế hệ AI đời đầu, trách nhiệm dân sự không phát sinh nhiều do đây là những hệ thống AI luôn có thể kiểm soát được (hệ thống đã được lập trình và luôn hoạt động "trong khuôn khổ") Vậy nên, vấn đề xác định trách nhiệm dân sự đặt ra chủ yếu với ứng dụng hệ thống AI tự học Khi hệ thống AI nhận được đầu vào bất thường hoặc không mong muốn, câu hỏi đặt ra là liệu hệ thống có còn hoạt động như dự định trong những trường hợp bất ngờ hoặc không quen thuộc không?

Ví dụ như một ứng dụng trên điện thoại thông minh phát hiện ung thư da đã có chẩn đoán sai đối với bệnh nhân da màu Theo đó, ứng dụng này sử dụng máy ảnh của điện thoại để xác định các dấu hiệu ung thư da ở giai đoạn đầu cho kết quả chính xác cao trong các thử nghiệm thực địa của nhà phát triển Hàng triệu người

Mỹ đã tải xuống và sử dụng ứng dụng này để quyết định xem họ có nên hỏi ý kiến của chuyên gia về các triệu chứng cần thiết can thiệp y tế Vài năm sau, các nhà nghiên cứu sức khỏe cộng đồng phát hiện ra xu hướng gia tăng đột biến trong chẩn đoán ung thư da giai đoạn cuối ở bệnh nhân da sẫm màu, cùng với hàng nghìn ca chẩn đoán bổ sung và hàng trăm ca tử vong Một cuộc điều tra cho thấy ứng dụng tự sàng lọc đã được đào tạo và thử nghiệm chủ yếu trên dữ liệu từ các nước Bắc Âu và kém chính xác hơn nhiều trong việc phát hiện ung thư trên nền da tối màu 79

Hay như việc hệ thống chăm sóc sức khỏe của Hoa Kỳ sử dụng các thuật toán thương mại để hướng dẫn các quyết định về sức khỏe để dự đoán bệnh nhân nào cần được chăm sóc theo dõi Sau đó, các bằng chứng đã cho thấy có sự thiên vị chủng tộc khi phân loại bệnh nhân da trắng nói chung là bệnh nặng hơn bệnh nhân da màu - ngay cả khi tình trạng bệnh của họ là giống nhau Nghiên cứu chỉ ra sự thiên vị chủng tộc của hệ thống làm giảm hơn một nửa số lượng bệnh nhân da đen được xác định để được chăm sóc thêm Lỗi là do thuật toán sử dụng chi phí sức khỏe làm đại diện cho nhu cầu sức khỏe, số tiền được chi ra bởi những bệnh nhân da màu ít hơn so với bệnh nhân da trắng có cùng mức độ cần thiết phải chăm sóc và do đó, thuật toán kết luận rằng bệnh nhân da màu khỏe mạnh hơn những bệnh nhân da trắng mặc dù tình trạng sức khỏe của họ là có bệnh như nhau 80

79 Angela Lashbrook, “ Khoa da liễu dựa trên AI có thể bỏ lại những bệnh nhân có làn da sẫm màu" (AI- Driven Dermatology Could Leave Dark- Skinned Patients Behind), The Atlantic, August 16, 2018, (truy cập: https://www.theatlantic.com/health/archive/2018/08/machine-learning- dermatology-skin-color/567619/, ngày 25/05/2023)

Trong một trường hợp khác, hệ thống AI chụp X quang gặp lỗi dẫn đến việc chẩn đoán ung thư phổi bị chậm trễ Tuy hệ thống có đánh dấu sự bất thường khi chụp nhưng không xác định được đó là dấu hiệu nghi ngờ ung thư Bệnh nhân được chẩn đoán ung thư sau vài tháng, khi đó tình trạng bệnh đã chuyển sang giai đoạn không thể chữa khỏi 81

THỰC TIỄN PHÁP LUẬT CỦA ĐỨC VÀ PHÁP KHI XÁC ĐỊNH TRÁCH NHIỆM DÂN SỰ TRONG ỨNG DỤNG TRÍ TUỆ NHÂN TẠO TRONG Y TẾ - MỘT SỐ ĐỀ XUẤT CHO VIỆT NAM

Trách nhiệm dân sự của bác sĩ trong trường hợp ứng dụng AI trong y tế gây thiệt hại

2.1.1 Nghĩa vụ của bác sĩ khi ứng dụng AI trong khám, chữa bệnh

• Quy định trong hệ thống pháp luật Đức

Theo quy định của pháp luật Đức, trách nhiệm dân sự (TNDS) của bác sĩ trong khám, chữa bệnh hoặc trong phẫu thuật sẽ chịu sự điều chỉnh của Bộ luật dân sự Đức (BLDS Đức) 103 , Đạo luật trách nhiệm y tế Đức (Đạo Luật TNYT) 104 và Đạo

102 Philiip Muler Pentzer (2023),"Trí tuệ nhân tạo- Ai chịu trách nhiệm nếu robot bị lỗi" (Künstliche Intelligenz (KI)–wer ist verantwortlich, wenn der Roboter ausfọllt? (xem tại: https://www.srd- rechtsanwaelte.de/blog/kuenstlicheintelligenzhaftung/#:~:text=Wenn%20man%20sich%20diese%20Vorauss etzungen,hervorgerufen%20wurden%2C%20eigentlich%20immer%20haften, truy cập ngày 26/10/2023)

103 Bộ luật Dân sự Đức (Deutsches Bürgerliches Gesetzbuch-BGB) được ban hành năm 1896 ( được sửa đổi bổ sung năm 1977 và năm 2002)

104 Haftungsgesetz für Medizinprodukte-MHaftG luật Quyền Bệnh nhân (Đạo Luật QBN) 105 Theo đó, Đạo luật TNYT quy định trách nhiệm của các chuyên gia y tế đối với thiệt hại do các sản phẩm y tế gây ra, bao gồm cả những sản phẩm có ứng dụng AI, đồng thời, đạo luật này cũng đặt ra các tiêu chí an toàn và hiệu quả mà thiết bị y tế phải đáp ứng Bên cạnh đó, đạo luật này còn thiết lập trách nhiệm pháp lý đối với nhà sản xuất, nhập khẩu và phân phối các thiết bị y tế 106 Còn Đạo luật QBN quy định các điều khoản nhằm bảo đảm quyền lợi của bệnh nhân (bao gồm quyền được thông tin đầy đủ, chính xác về phương pháp điều trị, chẩn đoán, ; quyền được đồng ý hoặc không đồng ý với những phương pháp điều trị được tư vấn; quyền truy cập hồ sơ y tế của họ và quyền được điều trị một cách phù hợp nhất)

Trách nhiệm của bác sĩ tại Đức sẽ được xem xét theo hai khía cạnh: (i) thứ nhất là quá trình khám, chữa bệnh (bao gồm: chẩn đoán, điều trị ) và (ii) thứ hai là cung cấp thông tin và đạt được sự đồng thuận của bệnh nhân Hai khía cạnh này đều có thể xem xét dựa trên trách nhiệm pháp lý theo hợp đồng điều trị (nếu có) và trách nhiệm pháp lý độc lập với hợp đồng 107 Hiện nay, đạo luật TNYT Đức chưa quy định cơ sở pháp lý cụ thể nào dành cho các yêu cầu bồi thường thiệt hại nên các nguyên tắc trách nhiệm pháp lý chung của Bộ luật Dân sự Đức sẽ được áp dụng 108 Bác sĩ sẽ chịu trách nhiệm bồi thường trong trường hợp vi phạm những nghĩa vụ trong hợp đồng điều trị theo Điều 276, Điều 280 (1) 109 và Điều 630a (1) 110 BLDS Đức hoặc bồi thường thiệt hại ngoài hợp đồng theo Điều 823 (1) 111 BLDS Đức

106 Xem tại: https://www.bundesgesundheitsministerium.de/medical-devices-act.html, truy cập ngày 18/04/2023

107 S.A Sommer, R.Geissler (2016), "Medical Liability and Patient Law in Germany: Main Features with Particular Focus on treatment in the feild of Interventional Radiology), Theme-connect, tr353-358

108 Wagner (2020), "Bình luận Munich về Bộ Luật Dân Sự- Điều 630a", tập 5, quyển 2, nxb Munich, tái bản năm 2020

(xemtại:https://beckonline.beck.de/?vpath=bibdata%2Fkomm%2FMuekoBGB_9_Band5%2FBGB%2Fcont

%2FMuekoBGB%2EBGB%2Ep630a%2Ehtm, truy cập ngày 31/10/2023)

109 Marc S Stauch (2011), "Sơ suất y tế và bồi thường ở Đức" (Medical Malpractice and Compensation in Germany)

(xem tại: https://scholarship.kentlaw.iit.edu/cgi/viewcontent.cgi?article814&context=cklawreview, truy cập ngày 16/6/2023)

111 BLDS Đức- Điều 823- Trách nhiệm bồi thường thiệt hại

(1) Người cố ý hoặc vô ý làm tổn hại trái pháp luật đến tính mạng, tay chân, sức khỏe, tự do, tài sản hoặc một số quyền khác của người khác có trách nhiệm bồi thường cho bên kia về những thiệt hại phát sinh từ đó

(2) Người vi phạm đạo luật nhằm bảo vệ người khác cũng có nghĩa vụ tương tự Nếu theo nội dung quy chế mà có thể vi phạm mà không có lỗi thì trách nhiệm bồi thường chỉ có trong trường hợp có lỗi trong trường hợp có lỗi sơ suất y tế và gây thiệt hại cho bệnh nhân 112 Trong đó, "sơ suất y tế" là việc không thực hiện nghĩa vụ của mình với sự cẩn trọng hợp lý theo Điều 276 (2) BLDS Đức

Trách nhiệm dân sự phát sinh trên cơ sở bác sĩ có lỗi trong việc chẩn đoán, điều trị, lựa chọn hoặc thực hiện liệu pháp, theo dõi, chăm sóc sau đó 113 hoặc trong việc thông tin về phương pháp điều trị, chẩn đoán cho bệnh nhân cũng như đạt được sự đồng ý của họ 114 (lỗi dưới hình thức cố ý hoặc vô ý - sơ suất y tế) Theo quy định của pháp luật Đức, trách nhiệm theo hợp đồng và trách nhiệm ngoài hợp đồng có các điều kiện tiên quyết giống nhau và thường dẫn đến cùng một kết quả 115 , nên không có sự phân biệt trách nhiệm pháp lý theo hợp đồng và trách nhiệm pháp lý ngoài hợp đồng khi liên quan đến vi phạm nghĩa vụ của bác sĩ do sơ suất y tế trong điều trị hoặc trong việc thông tin và đạt được sự đồng ý của bệnh nhân 116 Đối với việc ứng dụng hệ thống AI nói riêng và các thiết bị kỹ thuật có yêu cầu cao về an toàn nói chung trong quá trình khám chữa bệnh, thì bác sĩ phải đảm bảo luôn sử dụng thiết bị tương ứng với công nghệ tiên tiến nhất trong khoa học y tế 117 Nếu bác sĩ sử dụng hệ thống AI, thì bác sĩ có nghĩa vụ kiểm tra độ chính xác, hiệu suất của AI, đảm bảo việc ứng dụng AI là an toàn và đúng cách 118 Kết quả chẩn đoán và điều trị có sự gợi ý của hệ thống AI phải được kiểm tra hợp lý, quy trình phẫu thuật có sự tham gia của AI phải được theo dõi và việc sử dụng hệ thống

AI phải được tiến hành theo cách tránh được thiệt hại càng nhiều càng tốt vì lý do hệ thống AI có tính độc lập cũng như không thể đoán trước 119

112 H.Stoll,"Trách nhiệm pháp lý đối với sơ suất y tế theo luật của Đức" (Liability for Medical Malpractice in German Law), Thieme Connect, số 18, tr.355

113 Lisa Osterloh (2021), "Ứng dụng trí tuệ nhân tạo trong chăm sóc sức khỏe Các vấn đề trách nhiệm được lựa chọn đối với bệnh nhõn"(Der Einsatz von Kỹnstlicher Intelligenz im Gesundheitswesen Ausgewọhlte haftungsrechtliche Probleme gegenüber Patienten), Luận văn cử nhân, GRIN Verlag, tr.14

115 Điều này được gọi trong tài liệu là "nguyên tắc đồng thời", trên cơ sở đó án lệ không còn phân biệt giữa hai căn cứ để yêu cầu bồi thường, (xem thêm Wagner (2020), "Bình luận của Munich về Bộ luật Dân sự - Điều 823 biên số 1072, 1082", nxb Munich, tái bản năm 2020; "Sự khác biệt có liên quan khi không có cơ sở hợp đồng về trách nhiệm pháp lý đối với nguyên đơn, trong trường hợp bác sĩ bệnh viện được tuyển dụng, (xem thêm Wagner (2020), "Bình luận Munich về Bộ luật Dân sự- Điều 823 biên số 1083", nxb Munich, tái bản năm 2020)

117 Trách nhiệm đối với hợp tác nội bộ và liên ngành/đa ngành và công nghệ từ xa sẽ xuất hiện nhiều hơn dưới dạng trách nhiệm pháp lý của tổ chức và trách nhiệm pháp lý đối với chất lượng và sự an toàn của các chương trình trị liệu (xem thêm: Katzenmeier (2016), "Luật y tế- chương XI, đoạn 126", MedR, tr.669- 675)

119 Herbert Zech, Isabelle Céline Hünefeld (2023), tlđd (72), tr4

Bác sĩ điều trị có nghĩa vụ cung cấp phương pháp điều trị - không thấp hơn tiêu chuẩn chuyên khoa 120 ; cung cấp thông tin, tài liệu và nhận được sự đồng ý của bệnh nhân cho việc điều trị 121 Điều 630a (2) quy định rằng việc điều trị phải được thực hiện theo các tiêu chuẩn chuyên môn được công nhận chung hiện có tại thời điểm điều trị (trừ khi có thỏa thuận khác) Trong quá trình khám chữa bệnh, bác sĩ phải đảm bảo tuân thủ quy trình nghiêm ngặt liên quan đến toàn bộ quá trình điều trị: từ tiền sử bệnh đến khám, chẩn đoán, điều trị dự phòng, điều trị và chăm sóc sau điều trị, cũng như vấn đề đảm bảo an toàn cho bệnh nhân 122

Bên cạnh đó, bác sĩ phải cung cấp thông tin đầy đủ cho bệnh nhân 123 , phải thông báo cho bệnh nhân về tất cả các trường hợp cần thiết để có sự đồng ý 124 Điều 630d (1) BLDS Đức quy định trước khi điều trị, bệnh nhân phải thực sự đồng ý với can thiệp y tế 125 Theo Điều 630e (2) BLDS Đức, thông tin được cung cấp bao gồm bản chất, mức độ, việc thực hiện, hậu quả và rủi ro dự kiến của biện pháp, cũng như sự cần thiết, cấp bách, phù hợp và triển vọng thành công của biện pháp đó liên quan đến chẩn đoán hoặc điều trị Khi hệ thống AI được sử dụng trong điều trị y tế, bệnh nhân phải được thông tin đầy đủ về việc sử dụng nó cũng như ảnh hưởng của hệ thống AI đối với việc điều trị và có "sự đồng ý rõ ràng" về việc sử dụng hệ thống AI trong việc điều trị của họ 126 Trong trường hợp bác sĩ muốn đi chệch khỏi tiêu chuẩn y tế và sử dụng hệ thống AI với những rủi ro chưa được làm rõ 127 , bác sĩ phải thông báo cho bệnh nhân

Như vậy, tại Đức, trách nhiệm của bác sĩ được quy định tương đối cụ thể: khi ứng dụng hệ thống AI bác sĩ đảm bảo nó được sử dụng đúng cách, an toàn và phải có sự kiểm chứng, so sánh cũng như theo dõi đầy đủ những gợi ý, số liệu của hệ thống này Đồng thời, bác sĩ cũng cần cung cấp thông tin đầy đủ và rõ ràng cho bệnh nhân về việc sử dụng hệ thống AI trong quá trình khám, chữa bệnh cho họ

120 Tiêu chuẩn bác sĩ chuyên khoa tương ứng với quy trình có thể được mong đợi ở một bác sĩ (chuyên gia) tận tâm và chu đáo (Xem tại: phán quyết BGH ngày 22.12.2015 - VI ZR 67/15, NJW 713, 2016)

122 Christian Katzenmeizer (2021), "AI trong y học: Những vấn đề pháp lý" (KI in der Medizin – Haftungsfragen), MedR, số 39, tr.861

Trách nhiệm dân sự của nhà sản xuất khi ứng dụng AI trong y tế gây thiệt hại cho bệnh nhân

2.2.1 Cơ chế xác định trách nhiệm dân sự của nhà sản xuất khi có thiệt hại xảy ra cho bệnh nhân

• Quy định trong hệ thống pháp luật Đức

Luật pháp của Đức từ lâu đã áp dụng quan điểm: nhà sản xuất luôn “gần với sản phẩm”, bất kể là loại sản phẩm nào Trách nhiệm của nhà sản xuất đối với lỗi sản phẩm phải luôn được đánh giá theo các quy tắc giống nhau, bất kể sản phẩm đó là chai nước, xe tự lái, hay các hệ thống AI có độ phức tạp cao 195 Lý do nhà sản xuất luôn phải chịu trách nhiệm nếu các hệ thống AI gặp trục trặc bởi họ là những người gần gũi nhất trong việc đưa ra quyết định thông qua việc phát triển, lập trình và đào tạo các hệ thống AI Theo đó, trách nhiệm của nhà sản xuất

195 Philiip Muler Pentzer (2023), tlđd (102) được xác định theo Đạo luật Trách nhiệm Sản phẩm của Đức (ĐLTNSP Đức ) và theo Điều 823 (1) BLDS Đức 196 Điều 1(1)- Đạo luật Trách nhiệm sản phẩm của Đức (ĐLTNSP Đức) 197 quy định trách nhiệm của nhà sản xuất đối với các sản phẩm bị lỗi và gây thương tích cho người hoặc hư hỏng đồ vật được sử dụng cho mục đích cá nhân, nếu thương tích hoặc thiệt hại đó phát sinh từ lỗi của sản phẩm Nhà sản xuất có trách nhiệm bồi thường thiệt hại cho chủ thể bị tổn hại (các quyền hợp pháp) Để xác định trách nhiệm pháp lý của nhà sản xuất đối với sản phẩm cần phải căn cứ theo các quy định tại Điều 1(1) ĐLTNSP Đức:

- Có sự vi phạm lợi ích hợp pháp được bảo vệ (làm chết người, gây thương tích, tổn hại sức khỏe, làm hư hỏng đồ vật)

- Những vi phạm được liệt kê ở trên là hậu quả của việc sử dụng sản phẩm bị lỗi

- Có thiệt hại (tài chính) và

- Không tồn tại ngoại lệ pháp lý theo Điều 1(2,3) Đạo luật Trách nhiệm Sản phẩm của Đức 198

Khi xem xét trách nhiệm đối với sản phẩm bị lỗi của nhà sản xuất, yếu tố

"lỗi" (vô ý hay cố ý) của họ không quan trọng, yếu tố quyết định nằm ở việc nhà sản xuất đã tạo ra nguồn nguy hiểm bằng cách đưa một sản phẩm bị lỗi ra thị trường Bệnh nhân - bên bị thiệt hại có thể yêu cầu đòi bồi thường trực tiếp với nhà sản xuất Theo quy định tại Đạo luật Trách nhiệm Sản phẩm của Đức 199 , nhà sản xuất phải chịu trách nhiệm pháp lý với vai trò là nhà sản xuất đưa sản phẩm cuối cùng (hoàn thiện) ra thị trường 200 Nếu sản phẩm gồm nhiều thành phần được cung

196 Helle (2020), "Thiết bị y tế thông minh: Khung pháp lý hiện hành có còn cập nhật" (Katrin Intelligente Medizinprodukte: Ist der geltende Rechtsrahmen noch aktuell?), MedR, số 38, tr.996

197 Đạo luật Trách nhiệm sản phẩm Đức được ban hành để thực hiện Chỉ thị về trách nhiệm pháp lý đối với sản phẩm 85/374/EEC của Liên Minh Châu Âu (EU)- Điều 1:"Nếu ai đó thiệt mạng, cơ thể hoặc sức khoẻ của họ bị thương hoặc thứ gì đó bị hư hỏng do lỗi của sản phẩm, nhà sản xuất sản phẩm có nghĩa vụ bồi thường thiệt hại cho bên bị thương Trong trường hợp thiệt hại về tài sản, điều này chỉ áp dụng nếu một mặt hàng không phải là sản phẩm bị lỗi bị hư hỏng và mặt hàng kia, về bản chất, thường được dùng cho mục đích sử dụng hoặc tiêu dùng cá nhân và được bên bị thương sử dụng chủ yếu cho mục đích này."

198 Điều 1 (2):" Căn cứ tình hình, có thể giả định sản phẩm chưa có khuyết tật gây thiệt hại khi nhà sản xuất đưa ra thị trường"; Điều 1 (3):" Nhà sản xuất không sản xuất sản phẩm để bán hoặc dưới bất kỳ hình thức phân phối nào khác với mục đích thương mại, cũng như sản xuất hoặc phân phối như một phần hoạt động nghề nghiệp)- Web Bộ Tư pháp Đức: https://www.gesetze-im-internet.de/prodhaftg/ 1.html)

199 Điều 1 (2):" Căn cứ tình hình, có thể giả định sản phẩm chưa có khuyết tật gây thiệt hại khi nhà sản xuất đưa ra thị trường"; Điều 1 (3):" Nhà sản xuất không sản xuất sản phẩm để bán hoặc dưới bất kỳ hình thức phân phối nào khác với mục đích thương mại, cũng như sản xuất hoặc phân phối như một phần hoạt động nghề nghiệp)- Web Bộ Tư pháp Đức: https://www.gesetze-im-internet.de/prodhaftg/ 1.html)

200 Wagner, tlđd (108), tr.719 cấp bởi nhiều bên, nhà sản xuất cuối cùng là người chịu trách nhiệm chung về thiết kế 201 và đảm bảo rằng phần mềm dựa trên hệ thống AI phù hợp và tương thích với phần cứng (nếu có) 202 Vậy một hệ thống AI cần đáp ứng những điều kiện gì để có thể được ứng dụng trong y tế? Để xác định trách nhiệm của nhà sản xuất theo Điều 1- ĐLTNSP của Đức, thì lỗi bắt nguồn từ "sản phẩm" Như vậy, các hệ thống AI phải đáp ứng các điều kiện để được coi là "sản phẩm" theo Điều 2- ĐLTNSP Đức 203 và theo quy định về sản phẩm tại Điều 90- BLDS Đức 204 Bên cạnh đó, điều kiện để hệ thống AI có thể được sử dụng trong y tế thì hệ thống AI này phải đáp ứng Quy định về Thiết bị Y tế (MRD) 205 và Đạo luật Triển khai Luật Thiết bị Y tế (MPDG) 206 Theo Điều 2-1 của Quy định về Thiết bị Y tế: phần mềm dựa trên AI được coi là một thiết bị y tế tích cực 207 nếu nó đáp ứng mục đích y tế 208 Theo Điều 2-2 của quy định này, hệ thống

AI cũng có thể được phân loại là một phụ kiện kèm theo và không phải là thiết bị y tế nếu nó chỉ điều khiển một phần cứng và bản thân nó không thực hiện bất kỳ hoạt động nào cho mục đích y tế

Vấn đề đặt ra với những hệ thống AI được truyền trực tuyến là hệ thống AI này có được coi là "sản phẩm" hay không vì chúng không phải một sản phẩm hữu hình 209 Theo Chỉ thị Trách nhiệm Sản phẩm 85/374/EEC, "phần mềm máy tính" 210 cũng được coi là một loại sản phẩm - đây được xem là tiền đề để có thể nhìn nhận các phần mềm ứng dụng hệ thống AI là một loại sản phẩm Chính phủ Đức cho

202 Seehofer (2020), "Trí tuệ nhân tạo: Cập nhật Luật Trách nhiệm sản phẩm" (Künstliche Intelligenz: Updates für dasProdukthaftungsrecht?), EuZW, tr.216

203 Theo Điều 2:"Một sản phẩm là bất kỳ thứ gì có thể di chuyển được, ngay cả khi nó tạo thành một phần của một thứ có thể di chuyển hoặc một thứ không thể di chuyển, cũng như điện", Web Bộ Tư pháp Đức: https://www.gesetze-im-internet.de/prodhaftg/ 1.html)

204 Điều 9- BLDS Đức: "Một vật thể có thể nhận biết được bằng các giác quan"

205 Quy định (EU) 2017/745 về thiết bị y tế (Quy định về thiết bị y tế (MDR)) ban hành ngày 25 tháng 5 năm

2017 (có hiệu lực từ ngày 26 tháng 5 năm 2021)

206 Ở Đức, MPDG được sử dụng để triển khai và bổ sung các quy định của Châu Âu MDR (EU/2017/746) và IVDR (EU/2017/745) MPDG đề cập đến MDR ở nhiều điểm nên cả hai văn bản nên được đọc song song MPDG được ban hành ngày 28 tháng 4 năm 2020, Công báo Luật Liên bang I trang 960, có hiệu lực chủ yếu vào ngày 26 tháng 5 năm 2021.(xem thêm: https://www.mic-mainz.de/en/mpdg-2/, truy cập ngày 17/10/2023)

207 Một thiết bị y tế đang hoạt động là một thiết bị y tế “có hoạt động phụ thuộc vào một nguồn năng lượng khác với năng lượng được tạo ra cho mục đích này bởi cơ thể con người hoặc bởi trọng lực” (Điều 2 Số 4 MDR)

208 Mục đích dự định mô tả việc sử dụng sản phẩm theo thông tin của nhà sản xuất và có thể tìm thấy trên nhãn, hướng dẫn sử dụng hoặc tài liệu quảng cáo và bán hàng (Điều 2 Đoạn 12 MDR)

210 Wagner, Gerhard (2017), "Trách nhiệm sản phẩm đối với hệ thống tự động", AcP 217, tr.765 rằng phần mềm cũng là "sản phẩm" theo ĐLTNSP Đức và người sản xuất cũng phải chịu trách nhiệm pháp lý về sản phẩm này của mình trong trường hợp nó gây ra thiệt hại, ngay cả khi nó không phải là một bộ phận của một vật thể chuyển động 211 Đồng thời, trong báo cáo ngày 19 tháng 02 năm 2017 của Ủy ban Châu Âu đã làm rõ rằng một số phần mềm không tích hợp cũng nằm trong phạm vi trách nhiệm sản phẩm 212 Vì vậy, cho đến hiện tại, theo quan điểm của các nhà lập pháp Đức, các hệ thống AI được truyền trực tuyến cũng được điều chỉnh theo Điều 2 ĐLTNSP của Đức về sản phẩm 213

Bên cạnh đó, để xác định trách nhiệm của nhà sản xuất theo ĐLTNSP của Đức, thì sản phẩm đó phải có "lỗi" với căn cứ xác định lỗi là Điều 3 214 của Đạo luật này Theo đó, một sản phẩm bị "lỗi" nếu nó không mang lại "sự an toàn như mong đợi một cách chính đáng trong mọi trường hợp" 215 Khi hệ thống AI được ứng dụng trong y tế, để đánh giá về "sự an toàn như mong đợi một cách chính đáng" thì các nhà lập pháp Đức cho rằng cần phải xây dựng những tiêu chuẩn riêng biệt và nghiêm ngặt hơn khi đi đánh giá lỗi của nó so với các hệ thống AI ứng dụng trong những lĩnh vực khác 216 Đồng thời, hệ thống AI gây hại sẽ được đo lường và so sánh theo hiệu suất hoạt động an toàn với các hệ thống AI tương đương khác trong cùng lĩnh vực 217

Trách nhiệm dân sự của người vận hành khi ứng dụng AI trong y tế gây thiệt hại cho bệnh nhân

2.3.1 Khái niệm người vận hành các hệ thống AI ứng dụng trong y tế Trên cơ sở đó, trách nhiệm dân sự của “người vận hành” mà Liên Minh Châu Âu (EU) đề xuất đã được xem xét tại Đức và Pháp 268 Với mục đích bắt buộc “tất cả các chủ thể trong chuỗi giá trị của các ứng dụng AI phải chịu trách nhiệm bồi thường đối với những thiệt hại do hệ thống đó gây ra cho bệnh nhân” 269 , Nghị quyết (2020/2014(ILN)) 270 đề xuất cơ chế xác định trách nhiệm dân sự cho một loại chủ thể mà không dựa trên lỗi của chủ thể này – là người vận hành Theo đó, Nghị quyết (2020/2014(ILN)) đã đưa ra khuyến nghị cần phải xác định trách nhiệm bồi thường không dựa trên lỗi đối với người vận hành hệ thống AI có rủi ro cao 271 nhằm đảm bảo lợi ích cho bên bị thiệt hại

Hiện tại, căn cứ để xác định các hệ thống AI có rủi ro cao là Nghị quyết của Nghị viện Châu Âu về “Các nguyên tắc đạo đức liên quan đến phát triển, triển khai và sử dụng AI, robot và các công nghệ liên quan” 272 , trong đó phân biệt các lĩnh vực có rủi ro cao (việc làm, giáo dục, y tế, giao thông vận tải, năng lượng, quốc phòng và an ninh, tài chính, v.v.) các mục đích hoặc mục đích sử dụng có rủi ro cao (tuyển dụng, đánh giá sinh viên, cho vay, quy trình bầu cử, lái xe tự động, ) Các hệ thống

AI ứng dụng trong y tế được xếp vào loại các hệ thống AI có rủi ro cao theo pháp luật EU 273 nên việc xác định trách nhiệm người vận hành theo đề xuất trong nghị quyết của EU là hợp lý

268 Céline Mangematin, "Luật trách nhiệm dân sự và Trí tuệ nhân tạo" (Droit de la responsabilité civile et l’intelligence artificielle), Nhà xuất bản Đại học Toulouse Capitole, tr447-468

269 Ro Dalcq, "Bình luận về Bộ luật dân sự Pháp", Tạp chí nghiên cứu pháp luật liên ngành (tập 22), tr39-53

270 Nghị quyết của Nghị viện Châu Âu ngày 20 tháng 10 năm 2020 với các khuyến nghị gửi tới Ủy ban về chế độ trách nhiệm dân sự đối với trí tuệ nhân tạo (2020/2014(INL)) (https://eur-lex.europa.eu/legal- content/EN/TXT/?uriEX%3A52020IP0276)

271 Nghị quyết của Nghị viện Châu Âu, tlđd (272)

272 Nghị quyết của Nghị viện Châu Âu ngày 20 tháng 10 năm 2020 với các khuyến nghị gửi tới Ủy ban về khuôn khổ cho các khía cạnh đạo đức của trí tuệ nhân tạo, robot và các công nghệ liên quan (2020/2012 (ILN))

(https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_FR.html)

273 Arman Iranfar (2023), "High- risk AI systems and Safety measures: An overview of the EU AI Act", Certification and inspection Body for Functional Safety, Cyber Security and Artificial intelligence, (xem tại: https://certx.com/ai/high-risk-ai-systems-and-safety-measures-an-overview-of-the-eu-ai- act/#:~:text=MY%20ACCOUNT-

,High%2DRisk%20AI%20Systems%20and%20Safety%20Measures%3A%20An%20Overview,of%20The%20EU%20AI%20Act&text=The%20EU%20AI%20Act%20is,fundamental%20rights%2C%20and%20the%20environment., truy cập ngày 01/11/2023)

Tuy nhiên cần lưu ý rằng đây là một khuyến nghị rất mới của EU, nên đến thời điểm hiện tại vẫn chưa có những quy định cụ thể trong hệ thống pháp luật của Đức cũng như của Pháp điều chỉnh về vấn đề này Các học giả ở hai quốc gia chỉ đưa ra các hướng đi để xem xét vận dụng quy định này của EU sao cho phù hợp với hiện trạng của nước mình Trên tinh thần đó, việc nghiên cứu những định hướng pháp lý ở Đức và Pháp giúp chúng ta tiếp cận một góc nhìn khách quan và có thể xem xét việc xây dựng trách nhiệm dân sự cho người vận hành các hệ thống AI tại Việt Nam

Trong Nghị quyết (2020/2014(ILN)) của EU, người vận hành được chia thành hai nhóm gồm: front end và back end Người vận hành Front-end là những người "thực hiện một số ảnh hưởng đối với rủi ro liên quan đến hoạt động và chức năng của hệ thống AI" và "thu được lợi ích từ hoạt động của nó" 274 trong khi người vận hành back-end là những người "gây ra một số ảnh hưởng đối với rủi ro liên quan đến hoạt động và chức năng của hệ thống AI" thông qua việc duy trì liên tục các tính năng công nghệ 275 Theo quan điểm của một số học giả thì người vận hành là một chủ thể đóng vai trò quan trọng và ảnh hưởng đến sự hoạt động có hiệu quả của hệ thống AI 276 Việc đưa ra một số đặc điểm của người vận hành thay vì xác định một chủ thể cụ thể trong định nghĩa về người vận hành của EU đã đưa ra một phạm vi rộng trong việc xác định chủ thể nào phù hợp là người vận hành

Trường hợp hệ thống AI được ứng dụng trong y tế thì người vận hành front end có thể là bác sĩ bởi họ là người trực tiếp thao tác với hệ thống, quyết định có sử dụng các kết quả mà hệ thống AI đưa ra hay không và hưởng lợi qua việc được các hệ thống AI này hỗ trợ, gợi ý trong việc khám chữa bệnh để có kết quả nhanh chóng và chính xác hơn Đồng thời, họ cũng có tác động trở lại tới hoạt động của hệ thống

AI khi mà những kết quả, kết luận trong quá trình khám chữa bệnh của họ được cung cấp, cập nhật thêm vào hệ thống và có thể trở thành những cơ sở dữ liệu mới cho các hệ thống AI tự học Những điều này đều có thể ảnh hưởng đến rủi ro hoạt động của hệ thống AI nên bản thân bác sĩ có thể được xem là người vận hành front end

Mặc dù bác sĩ có thể là người vận hành front-end của hệ thống AI tại thời điểm xảy ra thiệt hại nhưng bệnh viện hoặc phòng khám là bên quyết định việc mua

276 Nguyễn Thị Hoa (2023), "Xác định trách nhiệm bồi thường thiệt hại do trí tuệ nhân tạo gây ra- Kinh nghiệm của Liên Minh Châu Âu cho Việt Nam", Tạp chí Khoa học pháp lý Việt Nam, số 08 (168), tr.4 sắm cũng như xác định các điều kiện khung cụ thể cho việc triển khai và thanh toán các chi phí liên quan đến việc ứng dụng hệ thống AI Bên cạnh đó, bệnh viện hay phòng khám hoạt động vì lợi ích của mình, vì một bệnh viện hay phòng khám theo định hướng đổi mới công nghệ (ứng dụng hệ thống AI) sẽ mang tới danh tiếng nhất định và gia tăng kinh tế cho cơ sở này Theo logic đó, bệnh viện/phòng khám sẽ là chủ sở hữu các hệ thống AI này Với định nghĩa về người vận hành front end thì bệnh viện hay cơ sở khám chữa bệnh cũng có thể là đối tượng phù hợp Vì bệnh viện/phòng khám là người trang bị và quyết định việc đưa các hệ thống AI này vào sử dụng cũng như thu được lợi từ việc ứng dụng các hệ thống đó Đồng thời, họ cũng có quyền quản lý, kiểm soát việc thao tác, thực hành của bác sĩ đối với các hệ thống AI nên họ cũng có khả năng ảnh hưởng đến "rủi ro hoạt động" của các hệ thống AI này

Với người vận hành back end, nhà sản xuất các hệ thống AI được xem là phù hợp Bởi nhà sản xuất có ảnh hưởng đến "rủi ro hoạt động" của các hệ thống này thông qua việc hỗ trợ bảo trì, sửa chữa các chức năng lỗi (nếu có), cung cấp các bản cập nhật mới và đảm bảo hiệu suất hoạt động an toàn cho các hệ thống AI khi chúng được đưa vào sử dụng

Theo Nghị quyết (2020/2014(ILN)) của EU, trách nhiệm của người vận hành sẽ được căn cứ vào loại hệ thống AI: hệ thống AI là nguồn nguy hiểm cao độ (những hệ thống AI có rủi ro cao) và hệ thống AI khác Điều kiện để một hệ thống

AI được xem là nguồn nguy hiểm cao độ được quy định tại Điều 6 của Dự thảo Luật Trí tuệ nhân tạo 277 Căn cứ trên cách phân chia các hệ thống AI, trách nhiệm của người vận hành được xác định cụ thể như sau: người vận hành hệ thống AI là nguồn nguy hiểm cao độ sẽ phải chịu trách nhiệm pháp lý nghiêm ngặt Trách nhiệm đó bao gồm việc mua bảo hiểm tương xứng với khả năng gây thiệt hại của hệ thống AI này đối với người vận hành front end 278 Trong trường hợp mà hệ thống

AI này gây ra thiệt hại thì chủ thể vận hành sẽ phải chịu trách nhiệm Theo Khoản 3

Một số giải pháp pháp lý cho pháp luật Việt Nam

• Đối với trách nhiệm dân sự của người sử dụng- bác sĩ điều trị:

294 Dự thảo quy định về AI (I) ngày 3 tháng 5 năm 2021

Về việc xác định hành vi vi phạm nghĩa vụ của bác sĩ, thì qua việc nghiên cứu quy định của pháp luật Đức, chúng ta có thể nhận thấy rằng bác sĩ điều trị sử dụng AI tuy có thể vi phạm những tiêu chuẩn chung trong quá trình khám chữa bệnh nhưng nếu họ cung cấp thông tin về việc sử dụng AI và đạt được sự đồng thuận từ bệnh nhân cho việc điều trị cũng như chứng minh được việc sử dụng AI là cần thiết, bác sĩ có thể không phải chịu trách nhiệm trong trường hợp có thiệt hại xảy ra Tương tự tại Pháp, nếu bác sĩ chứng minh được việc sử dụng AI là cần thiết thì bác sĩ được xem là không có lỗi nếu việc ứng dụng hệ thống này gây thiệt hại Như vậy, pháp luật Việt Nam cần quy định rõ về việc sử dụng hệ thống AI trong quy trình khám chữa, bệnh của mỗi chuyên ngành để các bác sĩ tuân thủ theo trong quá trình khám, chữa bệnh Đồng thời cần bổ sung những quy định nghiêm ngặt hơn về nghĩa vụ thông báo, thông tin cho bệnh nhân về những phương pháp mới và phức tạp như hệ thống

AI trong suốt quá trình khám, chữa bệnh bên cạnh những quy định sẵn có về quyền được thông tin và lựa chọn trong việc khám, chữa bệnh của bệnh nhân 296 , cụ thể:

"Nghĩa vụ cung cấp thông tin cho bệnh nhân về phương pháp điều trị mới phải được nêu rõ trước và trong suốt quá trình khám, chữa bệnh Đồng thời bác sĩ phải đạt được sự đồng thuận của bệnh nhân trước khi điều trị bằng phương pháp mới bằng văn bản, lưu giữ những thông tin đó và cung cấp khi được yêu cầu trong thời hạn nhất định"

Bên cạnh đó, như đã phân tích, yếu tố "lỗi" đóng vai trò quan trọng trong việc đánh giá hành vi của các bác sĩ khi họ ứng dụng AI trong khám bệnh Do đó, việc yêu cầu nhận diện yếu tố “lỗi” của BLDS 2015 khi đánh giá trách nhiệm của bác sĩ là cần thiết 297 Quyết định sử dụng khuyến nghị của AI bởi bác sĩ liên quan đến ý kiến chuyên môn và chắc chắn sẽ gắn với nhận thức của bác sĩ đó Việc xác định trách nhiệm bồi thường thiệt hại (BTTH) không dựa trên yếu tố lỗi mà phụ thuộc hoàn toàn vào việc có thiệt hại sẽ dẫn đến một hệ quả là các bệnh viện, bác sĩ

“ngại” ứng dụng công nghệ mới vì lúc này phạm vi chịu trách nhiệm đã được mở rộng hơn so với việc áp dụng yếu tố lỗi Đồng thời, cách tiếp cận theo hướng chú trọng thiệt hại đối với trách nhiệm BTTH có thể không phù hợp trong bối cảnh AI đươc ứng dụng trong lĩnh vực y tế, bởi nó gây khó khăn trong việc chứng minh mối

297 Dương Quỳnh Hoa (2020), “Về trách nhiệm bồi thường thiệt hại ngoài hợp đồng”, Tạp chí Kiểm sát, số

13/2020, tr 36-43 liên hệ nhân quả với hành vi khám bệnh khi AI được sử dụng Do đó, việc áp dụng Điều 584 BLDS 2015 về BTTHNHĐ cần phải xây dựng theo hướng xác định lỗi của bác sĩ khi họ ứng dụng AI trong khám, chữa bệnh Cụ thể, nếu bác sĩ ứng dụng hệ thống AI vào khám chữa bệnh và chứng minh được sự cần thiết của việc ứng dụng hệ thống, đồng thời cung cấp được bằng chứng về việc đồng thuận có hiểu biết của bệnh nhân về việc tiếp nhận phương pháp này thì bác sĩ được xem là không có lỗi nếu việc ứng dụng AI gây thiệt hại cho bệnh nhân Đối với nghĩa vụ chứng minh, từ kinh nghiệm của pháp luật Đức và Pháp, có thể cân nhắc một số giải pháp sau để hỗ trợ khả năng chứng minh của nạn nhân tại Việt Nam, cụ thể như sau: (i) Giảm nhẹ nghĩa vụ chứng minh MQHNQ cho nạn nhân (bên bị thiệt hại) bằng việc yêu cầu bên này cung cấp thông tin về khả năng làm tăng rủi ro quá mức mà pháp luật cho phép của việc ứng dụng AI vào quá trình khám chữa bệnh của bác sĩ thay vì yêu cầu họ chứng minh việc ứng dụng những hệ thống AI đến mức "tất yếu" gây thiệt hại; (ii) Đảo ngược nghĩa vụ chứng minh trong trường hợp bên có nghĩa vụ để xảy ra lỗi liên quan đến phần kĩ thuật- phần cứng hay các lỗi mà bên này "hoàn toàn kiểm soát được" Cụ thể trong những trường hợp đó, bên có nghĩa vụ - bác sĩ phải chứng minh mình đã sử dụng, vận hành chính xác và tuân thủ đầy đủ các hướng dẫn Đồng thời, đối với việc sử dụng những hệ thống AI cũng cần có nhật ký các quy trình khi có sự liên quan đến thao tác của con người và yêu cầu bên sử dụng, hay bên vận hành cung cấp đúng và đầy đủ về nhật ký này khi có yêu cầu

• Đối với trách nhiệm dân sự của nhà sản xuất:

Khi hệ thống AI ứng dụng vào y tế là những hệ thống phức tạp, bên cạnh việc xây dựng những quy định nhằm làm rõ hai khái niệm "hàng hoá không bảo đảm chất lượng" và "hàng hoá khuyết tật", chúng ta cần cụ thể hoá các tiêu chí để xác định một sản phẩm có "lỗi" Cụ thể, chúng ta có thể xem xét xây dựng quy định nhằm xác định tiêu chí “sản phẩm có lỗi” hay “sản phẩm khiếm khuyết” như sau:

"Một sản phẩm có lỗi hoặc khuyết tật khi chúng không thể đem đến sự an toàn cần thiết mà người dùng kỳ vọng một cách hợp lý trong mọi trường hợp” Và để đánh giá "sự an toàn cần thiết được kỳ vọng một cách hợp lý", chúng ta có thể so sánh, đánh giá hệ thống lỗi với các hệ thống tương tự trong cùng lĩnh vực Đồng thời một hệ thống AI ứng dụng trong y tế sẽ bị xem là có lỗi khi nó đưa ra gợi ý, hành động không phù hợp với kiến thức y tế chuyên môn bất chấp những gợi ý, số liệu chính xác trước đó"

Bên cạnh đó, giải pháp đối với những quan hệ phức tạp và có sự tham gia của nhiều bên như quá trình ứng dụng hệ thống AI vào y tế là nên mở rộng phạm vi điều chỉnh về trách nhiệm BTTH do hàng hóa có khuyết tật gây ra trong Luật BVQLNTD đối với lĩnh vực công nghệ, đặc biệt đối với các ứng dụng AI – loại sản phẩm có thể phát triển theo hướng không lường trước, cụ thể: "Nhà sản xuất có nghĩa vụ bồi thường thiệt hại trong trường hợp hệ thống AI ứng dụng trong y tế mà họ sản xuất gây thiệt hại khi bên bị thiệt hại chứng minh được những thiệt hại mà họ phải gánh chịu có liên quan đến lỗi của hệ thống AI này" Việc điều chỉnh này không chỉ quan trọng trong việc xác định trách nhiệm pháp lý của các công ty sản xuất các hệ thống AI; đảm bảo quyền lợi cho người tiêu dùng, bệnh nhân mà còn bảo vệ quyền lợi chính đáng của các chủ thể khác sử dụng những ứng dụng AI của họ, đặc biệt trong bối cảnh Việt Nam đang hướng đến chuyển đổi số và ứng dụng công nghệ AI trong mọi lĩnh vực và đặc biệt là trong y tế Đối với nghĩa vụ chứng minh của bên bị thiệt hại, pháp luật Việt Nam có thể xây dựng những quy định về việc đảo ngược nghĩa vụ chứng minh trong trường hợp nhà sản xuất không đảm bảo các nghĩa vụ của mình, cụ thể: "Nhà sản xuất có nghĩa vụ tự chứng minh sản phẩm của mình không có lỗi trong những trường hợp họ đã không đưa ra được những chỉ dẫn, cảnh báo một cách toàn diện, mạnh mẽ, chính xác hoặc trong trường hợp những cảnh báo, hướng dẫn của nhà sản xuất có khiếm khuyết 298 Trong trường hợp nhà sản xuất không cung cấp được những bằng chứng về hướng dẫn, cảnh báo của mình, sản phẩm mà họ sản xuất mặc nhiên có lỗi và nhà sản xuất sẽ phải chịu trách nhiệm" Đồng thời, giải pháp xác định "khiếm khuyết mới" mà các học giả Pháp đưa ra cũng là một phương án rất thiết thực và khả thi đối với việc xác định lỗi của các hệ thống AI ứng dụng trong y tế Bên cạnh đó, khi xác định trách nhiệm BTTHNHĐ của nhà sản xuất theo Khoản 1- Điều 584 BLDS 2015 299 , cũng cần lưu ý học hỏi kinh nghiệm trong quy định của pháp luật Đức và Pháp, cụ thể "Nhà sản xuất các thiết bị y tế thông minh phải chịu trách nhiệm nếu bên này không chứng minh được đã hoàn thành các nghĩa vụ như theo dõi trước, trong và sau khi đưa hệ thống vào thị trường; đảm bảo hiệu suất hoạt

298 Điều 23 - Luật BVQLNTD; Nguyễn Thị Quế Anh, Nguyễn Bích Thảo (2020), Pháp luật về trách nhiệm sản phẩm: Từ lý thuyết đến thực tiễn ở Việt Nam, Tạp chí Khoa học: Luật học, số 36 (3), tr 43

299 Chương XX, Mục I, Khoản 1 - Điều 584- Căn cứ phát sinh trách nhiệm bồi thường thiệt hại "Người nào có hành vi xâm phạm tính mạng, sức khỏe, danh dự, nhân phẩm, uy tín, tài sản, quyền, lợi ích hợp pháp khác của người khác mà gây thiệt hại thì phải bồi thường, trừ trường hợp Bộ luật này, luật khác có liên quan quy định khác" động an toàn của hệ thống cũng như những nghĩa vụ cảnh báo Đồng thời, nhà sản xuất sẽ được xem xét giảm nhẹ trách nhiệm hoặc miễn trách nhiệm nếu họ cung cấp được bằng chứng về việc "lạm dụng" hoặc sử dụng không đúng hướng dẫn, không tiến hành cập nhật như yêu cầu của bên sử dụng"

Với việc viện dẫn miễn trừ do tình trạng khoa học công nghệ, cần xem xét giới hạn ngoại lệ này nhằm gắn thêm trách nhiệm lên những người kinh doanh, sản xuất hệ thống AI, đặc biệt là những hệ thống AI được ứng dụng trong những lĩnh vực quan trọng như y tế, giáo dục Tuy nhiên, việc phát triển hệ thống AI vẫn còn đang tiếp tục và mang lại nhiều lợi ích, nên cần phải cân nhắc, xem xét trong từng trường hợp cụ thể để không tạo áp lực quá lớn lên nhà sản xuất, tránh việc cản trở sự phát triển chung của công nghệ này tại Việt Nam

• Đối với trách nhiệm dân sự của người vận hành:

Tại Việt Nam, việc xác định trách nhiệm bồi thường không dựa trên lỗi đối với các hệ thống AI là nguồn nguy hiểm cao độ có thể căn cứ theo Điều 601 BLDS

2015 Theo đó, tại Khoản 1 điều này quy định:" Nguồn nguy hiểm cao độ bao gồm phương tiện giao thông vận tải cơ giới, hệ thống tải điện, nhà máy công nghiệp đang hoạt động, vũ khí, chất nổ, chất cháy, chất độc, chất phóng xạ, thú dữ và các nguồn nguy hiểm cao độ khác do pháp luật quy định." Điều khoản này không đưa ra khái niệm thế nào là “nguồn nguy hiểm cao độ” mà chỉ liệt kê các đối tượng được xem là “nguồn nguy hiểm cao độ” Để xác định đâu là nguồn nguy hiểm cao độ thì bên cạnh việc căn cứ theo quy định tại Điều 601 Bộ luật Dân sự 2015 thì chúng ta còn phải căn cứ vào các văn bản quy phạm pháp luật khác có liên quan hoặc quy định của cơ quan nhà nước có thẩm quyền về lĩnh vực cụ thể đó 300 Quy định trên đã để ngỏ cho các lĩnh vực chuyên ngành khác có thể quy định thêm các nguồn nguy hiểm cao độ Vì vậy trong trường hợp các hệ thống AI được ứng dụng trong y tế- một trong những lĩnh vực quan trọng và có sự tác động lớn đến toàn xã hội, pháp luật Việt Nam hoàn toàn có thể quy định nó là "nguồn nguy hiểm cao độ" từ đó thiết lập trách nhiệm bồi thường cho bên vận hành AI mà không dựa trên yếu tố lỗi

300 Thư viện bản án (2021), "Trách nhiệm bồi thường thiệt hại do nguồn nguy hiểm cao độ gây ra" (truy cập: https://thuvienphapluat.vn/banan/tin-tuc/trach-nhiem-boi-thuong-thiet-hai-do-nguon-nguy-hiem-cao-do-gay- ra-

4386#:~:text=Theo%20quy%20%C4%91%E1%BB%8Bnh%20t%E1%BA%A1i%20%C4%90i%E1%BB%81u,do%20ph%C3%A1p%20lu%E1%BA%ADt%20quy%20%C4%91%E1%BB%8Bnh%E2%80%9D,ngày 27/10/2023)

Ngày đăng: 14/10/2024, 09:48

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN