leftcenterrightdel
Việc sử dụng ChatGPT cần đảm bảo tính minh bạch và chính xác. 

Nhà xuất bản Đại học Cambridge (CUP) vừa công bố chính sách đạo đức trí tuệ nhân tạo (AI), chính sách đầu tiên về cách thức sử dụng AI trong các sản phẩm nghiên cứu khoa học. Quy định được đưa ra trong bối cảnh mối lo ngại gian lận qua ChatGPT ngày càng gia tăng.

Hàng năm, CUP xuất bản hơn 400 tạp chí khoa học và 1.500 chuyên khảo. Trong những tháng gần đây, CUP đã nhận được nhiều tác phẩm khoa học ghi tên tác giả là ChatGPT. Điều này đã gây tranh cãi về tính bản quyền, độ chính xác và chất lượng các sản phẩm khoa học trong thời đại công nghệ 4.0.

Do đó, CUP đã soạn thảo chính sách đạo đức AI, áp dụng cho các tác phẩm gửi về xuất bản. Theo đó, chính sách quy định rõ các văn bản được cho là “đạo văn” qua AI. Các tác giả khoa học sẽ phải chịu trách nhiệm về tính chính xác, toàn vẹn và nguyên bản của các tài liệu nghiên cứu, bao gồm việc sử dụng AI.

“Tác phẩm gửi về CUP phải là tác phẩm của chính tác giả. Họ không được trình bày ý tưởng, dữ liệu, từ ngữ hoặc tài liệu của người khác mà không trích dẫn rõ ràng”, chính sách của CUP viết.

Bà Mandy Hill, Giám đốc học thuật tại CUP, cho biết, chính sách đạo đức AI nhằm tạo niềm tin và hành lang cho các nhà nghiên cứu muốn sử dụng ChatGPT và các công cụ AI khác.

Theo bà Mandy Hill, cộng đồng học thuật và CUP đang dần dần tiếp cận với công nghệ trí tuệ nhân tạo mới bằng tinh thần tích cực. Trong đó, ưu tiên tính minh bạch, trách nhiệm giải trình, độ chính xác, tính độc đáo của nghiên cứu nếu sử dụng AI.

Theo giaoducthoidai