1. Trang chủ
  2. » Luận Văn - Báo Cáo

Báo cáo giữa kì đề tài đạo đức, chiến lược, luật ai của mỹ từ năm 2020

18 1 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Nội dung

ĐẠO ĐỨC AI LÀ GÌ?Đạo đức AI là một thuật ngữ được sử dụng để xác định các bộ hướng dẫn, cân nhắc và nguyên tắc đã được tạo ra để cung cấp thông tin một cách có trách nhiệm cho hoạt động

Trang 1

TRƯỜNG ĐẠI HỌC SƯ PHẠM KỸ THUẬT TP.HCMKHOA CÔNG NGHỆ THÔNG TIN

BỘ MÔN TRÍ TUỆ NHÂN TẠO

Trang 2

PHIẾU NHÂJN XÉT CỦA GIÁO VIÊN

Họ và tên Sinh viên 1 : MSSV 1: Họ và tên Sinh viên 2 : MSSV 2: Họ và tên Sinh viên 3 : MSSV 3: Ngành: Công nghệ Thông tin

Trang 3

MỤC LỤC

Phần 1: Mở đầu 3

1.Giới thiệu dẫn nhập 3

2.Mục tiêu của bài thuyết trình: 3

3.Thông qua bài thuyết trình này, chúng tôi hy vọng: 3

Phần 2: Nội dung 4

1.Chương 1: Đạo đức trong ai của mỹ 4

1 Đạo đức AI là gì? 4

2 Tại sao đạo đức AI lại quan trọng? 4

3 Khung đạo đức AI của mỹ 5

3.1.Tuyên ngôn Nhân quyền AI là gì? 5

3.2.Sáu nguyên tắc đạo đức AI của Microsoft là gì? 5

3.3.Các nguyên tắc đạo đức AI của DOD (Department of Defense: Bộ quốcphòngMỹ)……… 6

2.Chương 2: CHIẾN LƯỢC AI CỦA MỸ 8

1.Chiến lược 1: Phát triển các phương pháp hiệu quả nhằm phục vụ sự hợp tácgiữa con người và AI 8

2.Chiến lược 2: Đầu tư dài hạn vào nghiên cứu AI cơ bản và có trách nhiệm 9

3.Chiến lược 3: Đảm bảo an toàn, bảo mật của hệ thống AI .9

4.Chiến lược 4 : Mở rộng quan hệ đối tác công tư để tăng tốc những tiến bộ trongAI……… … 10

5.Chiến lược 5 : Thiết lập cách tiếp cận có nguyên tắc và phối hợp để hợp tácquốc tế trong nghiên cứu AI 11

3.Chương 3: LUẬT AI CỦA MỸ 13

1.Nguồn gốc ra đời của Luật về AI của Mỹ: 13

2.Các cơ sở pháp lý từ 2020 đến hiện tại: 13

PAGE \* MERGEFORMAT 2

Trang 4

3.Thách thức về luật AI của Mỹ khi được ban hành: 154.Tác động của luật về AI ảnh hưởng tới thực tiễn: 15Phần 3: Kết luận 16

PAGE \* MERGEFORMAT 2

Trang 5

PHẦN 1:MỞ ĐẦU

1 GIỚI THIỆU DẪN NHẬP

Trí tuệ nhân tạo (AI) đang ngày càng trở nên phổ biến và đóng vai trò quan trọng trong mọi khía cạnh của đời sống Nó có tiềm năng to lớn để giải quyết các vấn đề toàn cầu như biến đổi khí hậu, dịch bệnh, và bất bình đẳng Tuy nhiên, AI cũng tiềm ẩn nhiều rủi ro, chẳng hạn như thiên vị, phân biệt đối xử, và mất việc làm.

Do đó, việc phát triển và sử dụng AI một cách có đạo đức, có trách nhiệm là vô cùng quan trọng Bài thuyết trình này sẽ tập trung vào ba khía cạnh chính: đạo đức, chiến lược và luật AI của Mỹ.

2 MỤC TIÊU CỦA BÀI THUYẾT TRÌNH:

Giới thiệu về các nguyên tắc đạo đức trong phát triển và sử dụng AI của Mỹ Phân tích chiến lược AI của Mỹ.

Khám phá tình trạng hiện tại và xu hướng tương lai của luật AI ở Mỹ.

3 THÔNG QUA BÀI THUYẾT TRÌNH NÀY, CHÚNG TÔI HY VỌNG:

Nâng cao nhận thức về tầm quan trọng của đạo đức AI Đạo đức trong AI của Mỹ.

Giúp các bạn hiểu rõ hơn về chiến lược AI của Mỹ.

Cung cấp thông tin về luật AI hiện hành và những thay đổi tiềm năng trong tương lai.

PAGE \* MERGEFORMAT 2

Trang 6

PHẦN 2:NỘI DUNG

1 CHƯƠNG 1: ĐẠO ĐỨC TRONG AI CỦA MỸ

1 ĐẠO ĐỨC AI LÀ GÌ?

Đạo đức AI là một thuật ngữ được sử dụng để xác định các bộ hướng dẫn, cân nhắc và nguyên tắc đã được tạo ra để cung cấp thông tin một cách có trách nhiệm cho hoạt động nghiên cứu, phát triển và sử dụng hệ thống trí tuệ nhân tạo.

Trong giới học thuật, đạo đức AI là lĩnh v)c nghiên cứu xem xét các vấn đề đạo đức và triết học nảy sinh từ việc tiếp tục sử dụng công nghệ trí tuệ nhân tạo trong xã hội, bao gồm cách chúng ta nên hành động và những l)a chọn chúng ta nên đưa ra.

2 TẠI SAO ĐẠO ĐỨC AI LẠI QUAN TRỌNG?

Trong khi trí tuệ nhân tạo có thể mang lại nhiều lợi ích cho con người, nó cũng đi kèm với những quan điểm đạo đức mà không thể phớt lờ Khi các hệ thống này ngày càng được sử dụng trong nhiều lĩnh v)c, trí tuệ nhân tạo có thể có ảnh hưởng đáng kể đến tín dụng, việc làm, giáo dục, cạnh tranh, và nhiều lĩnh v)c khác.

Tuy nhiên, nếu không có đạo đức được tích hợp trong các thuật toán trí tuệ nhân tạo, thì gần như không thể đảm bảo rằng trí tuệ nhân tạo sẽ không cho phép một số bên gây ra nhiều hại hơn là lợi ích Với việc sử dụng trí tuệ nhân tạo ngày càng rộng rãi trong những năm gần đây, nó đã được sử dụng để gây s) không tin tưởng trong thông tin công cộng và đã được coi là gây ra phân biệt đối xử trong việc cung cấp dịch vụ và tạo ra các hồ sơ không thuận lợi cho các nhóm dân số, gây ra nhiều lo ngại đạo đức khác.

Ví dụ: nếu chúng tôi không phát triển các nguyên tắc đạo đức liên quan đến quyền riêng tư và bảo vệ dữ liệu cũng như đưa chúng vào tất cả các công cụ AI mà chúng tôi phát triển, thì chúng tôi có nguy cơ vi phạm quyền riêng tư của mọi người khi chúng được phát hành ra công chúng Công nghệ càng phổ biến hoặc hữu ích thì càng có hạ

Trách nhiệm của các nhà khoa học dữ liệu, các nhóm phát triển phần mềm và các bên tham gia khác trong vòng đời trí tuệ nhân tạo hiếm khi mở rộng ra đến đạo đức của trí tuệ nhân tạo Các kỹ sư phần mềm thường chú ý hơn đến việc hệ thống hoặc sản phẩm hoạt động hiệu quả như thế nào trong chức năng d) định của nó hơn là đến các tác động xã hội và đạo đức và những hậu quả dài hạn Đó là lý do tại sao việc thu hút các nhóm bên liên quan khác

PAGE \* MERGEFORMAT 2

Trang 7

nhau, bao gồm một loạt các thành viên đa dạng của xã hội dân s), để đảm bảo thiết kế và triển khai trí tuệ nhân tạo có tính đạo đức là quan trọng.

3 KHUNG ĐẠO ĐỨC AI CỦA MỸ

D)a trên nghiên cứu học thuật, các công ty công nghệ và cơ quan chính phủ Mỹ đã bắt đầu xây d)ng các khuôn khổ về cách chúng ta nên sử dụng – và xử lý nói chung – các hệ thống trí tuệ nhân tạo Như bạn có thể thấy, có khá nhiều điểm trùng lặp giữa các khung được thảo luận bên dưới.

3.1 Tuyên ngôn Nhân quyền AI là gì?

Vào tháng 10 năm 2022, Nhà Trắng đã công bố một kế hoạch chi tiết không ràng buộc cho Tuyên ngôn về Quyền của AI , được thiết kế để hướng dẫn việc sử dụng AI có trách nhiệm ở Hoa Kỳ Trong kế hoạch chi tiết, Nhà Trắng nêu ra năm nguyên tắc chính để phát triển AI:

Hệ thống an toàn và hiệu quả: Công dân cần được bảo vệ khỏi “hệ thống AI không an toàn hoặc không hiệu quả”, thông qua “thử nghiệm trước khi triển khai và giảm thiểu rủi ro”.

Không phân biệt đối xử: Công dân “không nên đối mặt với s) phân biệt đối xử bởi các thuật toán và hệ thống phải được sử dụng và thiết kế một cách công bằng”.

Bảo vệ dữ liệu tích hợp: Công dân không được “th)c hiện hành vi lạm dụng dữ liệu thông qua các biện pháp bảo vệ tích hợp và bạn phải có quyền quyết định cách sử dụng dữ liệu về bạn”.

Kiến thức & Minh bạch: “Bạn nên biết rằng một hệ thống t) động đang được sử dụng và hiểu cách thức cũng như lý do nó góp phần tạo ra những kết quả ảnh hưởng đến bạn”.

Từ chối: "Bạn nên có khả năng l)a chọn “từ chối”, khi cần thiết, và được truy cập đến “một người có thể nhanh chóng xem xét và giải quyết các vấn đề mà bạn gặp phải."

3.2 Sáu nguyên tắc đạo đức AI của Microsoft là gì?

Cùng với Nhà Trắng, Microsoft đã đưa ra sáu nguyên tắc chính để nhấn mạnh việc sử dụng AI có trách nhiệm Họ phân loại chúng là “có đạo đức” (1, 2, & 3) hoặc “có thể giải thích được” (4 & 5).

Công bằng: Hệ thống phải không phân biệt đối xử

Tính minh bạch: Cần có sẵn những hiểu biết sâu sắc về đào tạo và phát triển Quyền riêng tư và bảo mật: Nghĩa vụ bảo vệ dữ liệu người dùng

Tính toàn diện: AI nên xem xét “tất cả các chủng tộc và trải nghiệm của con người” PAGE \* MERGEFORMAT 2

Trang 8

Trách nhiệm giải trình: Nhà phát triển phải chịu trách nhiệm về kết quả

Nguyên tắc thứ sáu - nằm giữa cả hai mặt của nhị phân "đạo đức" và "có thể giải thích được" - là "Độ tin cậy và An toàn" Microsoft nói rằng các hệ thống AI nên được xây d)ng để có khả năng phục hồi và chống lại s) thao túng.

3.3 Các nguyên tắc đạo đức AI của DOD (Department of Defense: Bộ quốc phòng Mỹ)

Những nguyên tắc này sẽ áp dụng cho cả chức năng chiến đấu và phi chiến đấu, đồng thời hỗ trợ quân đội Hoa Kỳ duy trì các cam kết pháp lý, đạo đức và chính sách trong lĩnh v)c AI Các nguyên tắc đạo đức AI của bộ bao gồm năm lĩnh v)c chính:

Chịu trách nhiệm Nhân viên DoD sẽ th)c hiện các mức độ phán đoán và quan tâm phù hợp, đồng thời vẫn chịu trách nhiệm về việc phát triển, triển khai và sử dụng các khả năng AI.

Công bằng Bộ sẽ th)c hiện các bước có chủ ý để giảm thiểu s) thiên vị ngoài ý muốn trong khả năng AI.

Có thể theo dõi được Các khả năng AI của Bộ sẽ được phát triển và triển khai sao cho các nhân viên liên quan có hiểu biết phù hợp về công nghệ, quy trình phát triển và phương pháp vận hành áp dụng cho các khả năng AI, bao gồm các phương pháp, nguồn dữ liệu, quy trình và tài liệu thiết kế minh bạch và có thể kiểm tra được.

Đáng tin cậy Các khả năng AI của Bộ sẽ có những mục đích sử dụng rõ ràng, được xác định rõ ràng và tính an toàn, bảo mật và hiệu quả của các khả năng đó sẽ phải được kiểm tra và đảm bảo trong phạm vi các mục đích sử dụng đã xác định đó trong toàn bộ vòng đời của chúng.

Có thể quản lý được Bộ sẽ thiết kế và chế tạo các khả năng AI để th)c hiện các chức năng d) định của chúng, đồng thời sở hữu khả năng phát hiện và tránh những hậu quả không lường trước cũng như khả năng ngắt kết nối hoặc hủy kích hoạt các hệ thống đã triển khai thể hiện hành vi ngoài ý muốn.

Như bạn có thể thấy, cả ba khuôn khổ đều có nền tảng giống nhau và tập trung vào s) công bằng, không phân biệt đối xử, an toàn và bảo mật Nhưng “khả năng giải thích” cũng là một nguyên tắc quan trọng trong khuôn khổ đạo đức AI của Mỹ Có thể coi khả năng giải thích về mặt kỹ thuật là rất quan trọng trong đạo đức AI, vì nó yêu cầu “con người có thể hiểu và theo dõi các quyết định do hệ thống trí tuệ nhân tạo đưa ra”.

linkthamkhao linkthamkhao

PAGE \* MERGEFORMAT 2

Trang 9

2 CHƯƠNG 2: CHIẾN LƯỢC AI CỦA MỸ

Trí tuệ nhân tạo đã bắt đầu được quan tâm dưới thời kỳ của Tổng thống Obama Vào năm 2016, c)u Tổng thống đã khởi động một loạt hội thảo và thành lập một Tiểu bang về Máy học và Trí Tuệ Nhân Tạo Điều đó, nó đã có 3 ảnh hưởng toàn cầu:

Chuẩn bị cho tương lai của trí tuệ nhân tạo.

Kế hoạch chiến lược phát triển và nghiên cứu trí tuệ nhân tạo quốc gia Trí tuệ nhân tạo, T) động hóa và Kinh tế.

Trí tuệ nhân tạo (AI) là một trong những công nghệ mạnh mẽ nhất của thời đại Để nắm bắt những cơ hội mà AI mang lại, trước tiên phải nỗ l)c quản lý rủi ro có thể đã và đang diễn ra Chính phủ liên bang đóng một vai trò quan trọng trong nỗ l)c, bao gồm thông qua đầu tư một cách thông minh vào R&D nhằm thúc đẩy, đổi mới giải pháp cho những thách thức mà các lĩnh v)c khác không t) mình giải quyết được Chính phủ liên bang phải đặt con người và cộng đồng làm trung tâm bằng cách đầu tư vào hoạt động R&D có trách nhiệm nhằm phục vụ lợi ích công, bảo vệ quyền và s) an toàn của người dân, đồng thời nâng cao các giá trị dân chủ.

Kế hoạch này xác định những thách thức nghiên cứu lớn về AI để điều phối và tập trung đầu tư vào R&D của liên bang Nó sẽ đảm bảo Hoa Kỳ tiếp tục dẫn đầu trong việc phát triển và sử dụng các hệ thống AI đáng tin cậy, chuẩn bị l)c lượng lao động hiện tại và tương lai của Hoa Kỳ để tích hợp các hệ thống AI trên tất cả các lĩnh v)c và điều phối các hoạt động AI đang diễn ra trên các cơ quan liên bang.

Kế hoạch bao gồm một số chiến lược sau:

1 CHIẾN LƯỢC 1: PHÁT TRIỂN CÁC PHƯƠNG PHÁP HIỆU QUẢ NHẰM PHỤC VỤ SỰ HỢP TÁC GIỮA CON NGƯỜI VÀ AI

Nâng cao hiểu biết về cách tạo ra các hệ thống AI bổ sung và nâng cao hiệu quả khả năng của con người Các lĩnh v)c nghiên cứu bao gồm các thuộc tính và yêu cầu của các nhóm AI-con người thành công; các phương pháp đo lường hiệu suất và hiệu suất của các ứng dụng hợp tác AI; giảm thiểu nguy cơ con người lạm dụng các ứng dụng hỗ trợ AI dẫn đến kết quả có hại.

PAGE \* MERGEFORMAT 2

Trang 10

Trong xã hội mà AI ngày càng trở nên phổ biến, các phương pháp hiệu quả nhằm cộng tác giữa con người và AI ngày càng trở nên ưu tiên, quan trọng Đặc biệt đối với các ứng dụng trong công nghiệp, lĩnh v)c nguy hiểm (không gian sâu, môi trường phóng xạ, ),… Ngoài ra, trong một số lĩnh v)c khác như khám phá khoa học, được giải quyết hiệu quả nhất bằng s) kết hợp giữa con người và hệ thống AI nhằm tận dụng thế mạnh của mỗi bên Điều này đòi hỏi phải có s) hiểu biết đầy đủ về s) hợp tác giữa con người và AI.

Chiến lược này thể hiện tầm quan trọng ngày càng tăng của các yếu tố kỹ thuật xã hội và con người Đồng thời giải quyết nhu cầu nghiên cứu đa ngành nhằm tạo điều kiện cho s) hợp tác hiệu quả giữa con người và AI.

5 phương hướng phát triển:

Phát triển khoa học về hợp tác con người-AI Tìm kiếm các mô hình và thước đo hiệu suất cải tiến Nuôi dưỡng niềm tin vào tương tác giữa con người và AI Theo đuổi s) hiểu biết sâu sắc hơn về hệ thống AI-con người Phát triển các mô hình mới cho tương tác và cộng tác AI.

2 CHIẾN LƯỢC 2: ĐẦU TƯ DÀI HẠN VÀO NGHIÊN CỨU AI CƠ BẢN VÀ CÓ TRÁCH NHIỆM.

Ưu tiên đầu từ vào thế hệ AI tiếp theo để thúc đẩy s) đổi mới có trách nhiệm nhằm phục vụ lợi ích của công cộng và giúp Hoa Kỳ duy trì vị trí dẫn đầu thế giới về AI Điều này bao gồm việc nâng cao các khả năng nền tảng của AI như nhận thức, trình bày, học tập và suy luận, cũng như các nỗ l)c tập trung để làm cho AI dễ sử dụng hơn và đáng tin cậy hơn cũng như dễ đo lường và quản lý rủi ro liên quan đến AI.

3 CHIẾN LƯỢC 3: ĐẢM BẢO AN TOÀN, BẢO MẬT CỦA HỆ THỐNG AI

Nâng cao kiến thức về cách thiết kế AI hệ thống đáng tin cậy, và an toàn Điều này bao gồm nghiên cứu để nâng cao khả năng kiểm tra, xác th)c và xác minh chức năng cũng như độ chính xác của hệ thống AI, bảo mật hệ thống AI khỏi các lỗ hổng bảo mật dữ liệu và an ninh mạng

Mặc dù các hệ thống AI hứa hẹn mang lại những cải tiến về hiệu suất trong một số ứng dụng, nhưng độ phức tạp ngày càng tăng, nền tảng công nghệ phát triển nhanh chóng và nhu cầu dữ liệu quan trọng có thể dẫn đến rủi ro gia tăng khi triển khai chúng Điều này dẫn đến yêu cầu cao trong an toàn và bảo mật của các hệ thống AI.

PAGE \* MERGEFORMAT 2

Trang 11

Có 2 hướng nỗ l)c : Xây d)ng AI an toàn và Bảo mật AI.

Xây dựng AI an toàn

Khi AI trở nên phổ biến, các ứng dụng của nó ngày càng phổ biến, nhu cầu về một phương pháp tiếp cận quốc gia để nghiên cứu về AI an toàn ngày càng trở nên cấp thiết Nghiên cứu này bao gồm phát triển các phương pháp tạo, đánh giá, triển khai và giám sát AI tập trung vào s) an toàn Từ đó cần nhiều nghiên cứu hơn để phát triển các tương tác giữa con người và máy an toàn Việc khám phá các phương pháp chính thức mới có thể mô tả ranh giới của hành vi và mang lại s) nghiêm ngặt rất cần thiết cho các ứng dụng và thuật toán AI quan trọng về an toàn Những kỹ thuật này bao gồm các ngôn ngữ lập trình mới, các trình biên dịch để phát triển AI một cách mạnh mẽ hơn.

Bảo mật AI

Nhu cầu quốc gia về an toàn AI đang tăng lên khi phần mềm và hệ thống ngày càng phức tạp hơn nhưng cũng tăng tính dễ bị tổn thương trước các mối đe dọa an ninh mạng Luôn phải giải quyết nhiều câu hỏi mở vẫn xoay quanh các vấn đề về bảo mật AI, như nhu cầu về các số liệu phù hợp để liên kết mục tiêu, bảo vệ chống lại s) tấn công của đối thủ, các phương pháp có thể mở rộng và đánh đổi giữa khả năng diễn giải và độ chính xác.

Một mối đe dọa đối với các hệ thống AI là chuỗi cung ứng phát triển AI hiện có Vì hiện chỉ có một số công cụ được sử dụng để phát triển và triển khai hệ thống AI nên có nguy cơ những công cụ này có thể là phương tiện khiến các hệ thống bị xâm phạm Cần nỗ l)c để bảo vệ các công cụ này khỏi bị thao túng và phát triển bộ công cụ mạnh mẽ hơn để bảo vệ chuỗi cung ứng phát triển AI

4 CHIẾN LƯỢC 4 : MỞ RỘNG QUAN HỆ ĐỐI TÁC CÔNG TƯ ĐỂ TĂNG TỐC NHỮNG TIẾN BỘ TRONG AI

Thúc đẩy các cơ hội đầu tư bền vững vào R&D AI có trách nhiệm và chuyển đổi những tiến bộ thành năng l)c th)c tế, với s) cộng tác của các học viện, ngành công nghiệp, đối tác quốc tế và các tổ chức phi liên bang khác.

S) dẫn đầu của Hoa Kỳ trong nghiên cứu và đổi mới khoa học và kỹ thuật bắt nguồn t) hệ sinh thái R&D của chính phủ -trường đại học-công nghiệp Hoa Kỳ Như viện Hàn lâm khoa học và Nghệ thuật Hoa Kỳ đã viết, “Vị thế dẫn đầu về đổi mới của Hoa Kỳ” d)a vào việc “thiết lập mối quan hệ đối tác nghiên cứu giữa Chính phủ-Đại học-Công nghiệp” Trong

PAGE \* MERGEFORMAT 2

Ngày đăng: 08/04/2024, 17:41

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w