leftcenterrightdel
 AI hỗ trợ hiệu quả trong y tế

Khung pháp lý về xử lý dữ liệu AI

WHO vừa công bố tài liệu Những cân nhắc về quản lý với trí tuệ nhân tạo (AI) trong ngành y tế, nhấn mạnh tầm quan trọng của việc xây dựng các hệ thống AI an toàn và hiệu quả. Đồng thời thúc đẩy sự đối thoại giữa các bên liên quan về việc sử dụng AI như một công cụ hiệu quả trong y tế.

Tài liệu cho thấy việc ứng dụng AI trong y tế có nhiều tiềm năng, nhất là trong bối cảnh dữ liệu y tế ngày càng nhiều và tăng nhanh về số lượng, cùng với đó là sự tiến bộ của các công cụ, kỹ thuật phân tích dữ liệu. AI có thể giúp ích đáng kể việc chăm sóc sức khỏe thông qua hỗ trợ các thử nghiệm lâm sàng, cải thiện chẩn đoán y tế, giúp tăng thêm kiến thức và năng lực cho các nhân viên y tế.

Chính quyền bang Tây Úc của Úc mới đây đã dành khoảng 590.000 USD hỗ trợ cho các dự án thúc đẩy sử dụng AI trong y tế. Công ty Microsoft và Google cũng đã tung ra các công nghệ lưu trữ đám mây dành riêng cho y tế. Các sản phẩm này hỗ trợ tích hợp dữ liệu từ nhiều nguồn, giúp thiết lập thông tin từ các nguồn khác nhau và xây dựng những quy trình được chuẩn hóa.

Tuy nhiên, cũng theo WHO, việc sử dụng AI để xử lý dữ liệu y tế cũng đi kèm với nhiều thách thức bởi đây là những thông tin cá nhân nhạy cảm. Vì vậy, cần phải có khung pháp lý và nhiều quy định chặt chẽ để bảo vệ quyền riêng tư.

"AI trong ngành y tế là rất hứa hẹn nhưng cũng đi kèm nhiều thách thức, bao gồm việc thu thập dữ liệu phi đạo đức, những rủi ro an ninh mạng hay làm trầm trọng thêm các định kiến hoặc thông tin sai lệch. Quy định chặt chẽ về dữ liệu sẽ giúp giảm thiểu rủi ro", Tổng giám đốc WHO Tedros Adhanom Ghebreyesus nói.

leftcenterrightdel
 Tổng giám đốc WHO Tedros Adhanom Ghebreyesus

WHO đề xuất quy định việc ứng dụng AI vào xử lý dữ liệu y tế cần tham khảo nhiều khung pháp lý liên quan, như Quy định chung về bảo vệ dữ liệu châu Âu (GDPR), Đạo luật về trách nhiệm giải trình và cung cấp thông tin bảo hiểm y tế Mỹ (HIPAA).

Công nghệ tiên tiến này sẽ chỉ giúp thúc đẩy kinh tế-xã hội và là “cánh tay đắc lực” hỗ trợ cuộc sống của con người nếu được kiểm soát hợp lý.

Con người là trung tâm

Trong một cuộc họp mới diễn ra ở Nhật Bản, đại diện Nhóm các nước công nghiệp phát triển (G7) đã nhất trí về một bản dự thảo gồm 11 nguyên tắc phát triển AI. G7 cũng đang thúc đẩy biên soạn bộ quy tắc ứng xử quốc tế dành cho các nhà phát triển công cụ AI cùng các hướng dẫn dành cho nhà cung cấp và người sử dụng dịch vụ AI. Đây được đánh giá là một bước tiến của G7 trong nỗ lực xây dựng hệ thống AI trở nên an toàn, bảo mật và đáng tin cậy hơn, nhất là trong bối cảnh ngày càng có nhiều lời cảnh báo về nguy cơ tiềm tàng từ công nghệ này.

Sự phát triển nhanh chóng của AI và “phủ sóng” rộng rãi trong mọi lĩnh vực, đang đặt ra bài toán hóc búa cho các nhà lập pháp và giới công nghệ về việc kiểm soát hiệu quả rủi ro từ AI mà không ảnh hưởng đến quá trình phát triển và đổi mới công nghệ, không kìm hãm tinh thần sáng tạo.

leftcenterrightdel
 Châu Âu đang tìm cách cân bằng giữa phát triển công nghệ và bảo vệ con người trước AI

Liên minh châu Âu (EU) cũng đã tiến thêm được một bước quan trọng trong quá trình hiện thực hóa Đạo luật AI, khi các nghị sĩ đạt được đồng thuận về bản dự thảo các nguyên tắc minh bạch và quản lý rủi ro mới với hệ thống AI ngày 5/10.

Theo EU, dự thảo nhằm đảm bảo các hệ thống AI được con người giám sát, an toàn, minh bạch, có thể truy nguyên, không phân biệt đối xử và thân thiện với môi trường. Trong đạo luật, các quy định sẽ tùy thuộc vào mức độ rủi ro của các nền tảng AI. Theo đó, những AI ở mức "không thể chấp nhận" đối với sự an toàn của con người sẽ bị cấm, bao gồm các công nghệ thao túng có mục đích hoặc tiềm ẩn, khai thác các điểm yếu của con người hoặc phân loại con người.

Những công nghệ bị cấm trên AI bao gồm hệ thống nhận dạng sinh trắc học từ xa "theo thời gian thực", các yếu tố nhạy cảm (như giới tính, chủng tộc...), lấy dữ liệu sinh trắc từ mạng xã hội và camera giám sát công cộng...

Đối với những nền tảng AI cho mục đích tổng thể, các nhà cung cấp phải đánh giá, giảm thiểu rủi ro và đảm bảo không vi phạm quyền cơ bản, sức khỏe, an toàn và môi trường, dân chủ và luật pháp.

Điều khiến các hãng công nghệ lo lắng là hầu hết AI có thể bị xếp vào nhóm rủi ro cao và việc vi phạm có thể đối mặt án phạt lên đến 43 triệu USD hoặc 7% doanh thu cả năm. Vì vậy, nhiều công ty đang ra sức vận động để điều chỉnh trước khi đạo luật được chốt vào cuối năm nay.

Theo thoidai