Tốc độ phát triển nhanh chóng của AI đã làm nảy sinh ra những câu hỏi liên quan tới đạo đức và việc sử dụng trí tuệ nhân tạo trong giáo dục. Khi công nghệ luôn hiện hữu xung quanh, làm thế nào các trường đại học có thể trang bị cho sinh viên những kĩ năng cần thiết ở nơi làm việc trong tương lai?

Sự phát triển vượt trội của trí tuệ nhân tạo đang định nghĩa lại nơi làm việc đồng thời thúc đẩy sự đổi mới và tăng trưởng xung quanh cách chia sẻ và sử dụng thông tin. Nếu vai trò của giáo viên trong giáo dục đại học là truyền đạt những kinh nghiệm, kĩ năng cho sinh viên để sinh viên sẵn sàng trong môi trường làm việc mới, thì giáo viên phải trang bị cho sinh viên những kỹ năng AI mà nhà tuyển dụng mong muốn. Định nghĩa lại nơi làm việc trong bối cảnh kỹ thuật số, việc sinh viên sử dụng AI gây lo ngại cho sự phát triển của sinh viên.

Do đó, nghiên cứu của Michael Axelsen (giảng viên Hệ thống thông tin kinh doanh, đại học Queensland) và Suzanne Bonner (giảng viên Kinh tế, đại học Queensland) tìm hiểu thách thức đạo đức và xã hội của việc sử dụng AI trong giáo dục. Cụ thể, nghiên cứu hướng đến trả lời các câu hỏi: Các nhà giáo dục nên cân nhắc điều gì khi đối mặt với sự thay đổi của công nghệ kỹ thuật số?

AI đang phân chia các cơ sở giáo dục đào tạo như thế nào?

Một quan điểm điểm tích cực cho rằng khi sử dụng công cụ AI tạo lập văn bản như ChatGPT, Grammarly,… thì những công cụ này hỗ trợ hiệu quả sinh viên tạo ra những bài viết có nội dung mạch lạc, rõ ràng. Tuy nhiên, trái ngược với quan điểm trên cho rằng việc sử dụng AI khiến việc gian lận trở nên dễ dàng hơn và đe dọa tính liêm chính trong học thuật. Do đó, các phòng ban bị chia rẽ về cách ứng phó với những thách thức AI đặt ra cho các cơ sở giáo dục đại học (HEI).

Bằng cách “để AI làm việc đó”, sinh viên làm suy yếu tư duy học tập của chính bản thân, đồng thời, đánh mất cái tôi trong học tập. Điều này sẽ phá hoại tính liêm chính trong học thuật. Với việc gần như không thể phát hiện các câu trả lời do AI tạo ra (nhờ khả năng đưa ra những cách diễn đạt khác thay thế), nhiều trường đại học ở Úc đang quay trở lại các kỳ thi dưới hình thức viết tay để ngăn chặn sự tinh vi này.

Tuy nhiên, thay vào đó, việc sử dụng các phương pháp học tập dựa trên thực hành có thể giúp sinh viên tương tác tốt hơn với AI tại nơi làm việc tương lai của sinh viên. Ví dụ: để mô phỏng việc sử dụng AI tại nơi làm việc, giảng viên có thể cung cấp cho sinh viên kết quả đầu ra được tạo ra để đánh giá phê bình, khắc phục, phát triển và bối cảnh hóa (contextualisation).

Giảng dạy đạo đức kỹ thuật số có thể là một giải pháp

Trí tuệ nhân tạo có thể mang lại nhiều cơ hội để tăng cường thực hành trong giáo dục đại học, nhưng những tác động và rủi ro về mặt đạo đức cũng phát sinh từ việc sử dụng các công nghệ kỹ thuật số.

Năm 2009, Rafael Cappurro đã mô tả đạo đức kỹ thuật số (digital ethics) là tác động của công nghệ thông tin và truyền thông với xã hội khi xem xét những yếu tố được xã hội và đạo đức chấp nhận. Trong quá trình giảng dạy về đạo đức kỹ thuật số, Micheal Axelsen và Suzanne Bonner nhấn mạnh vào ý nghĩ “làm điều đúng đắn” chứ không phải “điều có thể làm được”. Thay vì cấm sinh viên sử dụng các công cụ AI, các nhà giáo dục cần đảm bảo sinh viên hiểu cách sử dụng AI và sử dụng AI có trách nhiệm. Giảng dạy đạo đức kỹ thuật số khuyến khích tư duy phản biện và sử dụng công nghệ một cách nguyên tắc, hiệu quả. Ví dụ: sinh viên có thể được yêu cầu xử lý các tình huống đạo đức về quyền tác giả đối với các tác phẩm nghệ thuật do AI tạo ra để thảo luận trong lớp. Bằng cách lôi cuốn sinh viên vào các câu hỏi triết học thuộc phạm trù đạo đức kỹ thuật số, giáo viên có thể thu hẹp khoảng cách giữa đổi mới công nghệ và các giá trị được xã hội chấp nhận.

Các nhà giáo dục nên tìm hiểu nhu cầu sử dụng có trách nhiệm để tăng cường tư duy học tập cũng như hiểu biết của sinh viên về những hạn chế của AI.

Sử dụng có trách nhiệm là yêu cầu xem xét chất lượng kết quả mà AI tạo ra. Người dùng cần đặt ra những câu hỏi liệu công cụ này có vi phạm quyền bảo mật dữ liệu, sở hữu trí tuệ hay bản quyền không? Là công dân kỹ thuật số (digital citizen), người dùng cần sử dụng các công cụ AI một cách có trách nhiệm. Người dùng chịu trách nhiệm học tập, công việc của bản thân, với vai trò vừa là sinh viên vừa là những lao động tương lai. Sinh viên cần minh bạch trong việc sử dụng các công cụ trí tuệ nhân tạo này.

Việc sinh viên tương tác thụ động với AI (tức là chấp nhận những kết quả mà AI đưa ra mà không thật sự quan tâm và suy nghĩ nghiêm túc) có thể coi là hành vi phi đạo đức. Ví dụ: một sinh viên sử dụng AI để trình bày kiến thức nhưng bị sai do những kiến thức đó, sinh viên đã không kiểm chứng lại. Ở ví dụ này, sinh viên đã không xuất hiện ở vai trò là người dùng sử dụng AI có trách nhiệm. Là người dùng có trách nhiệm, sinh viên phải biết và đánh giá các nguồn tin mà bản thân truy cập. Nhưng để làm như vậy đòi hỏi sinh viên cần xây dựng được các kỹ năng tư duy bậc cao.

Trở thành công dân kỹ thuật số tốt

Việc phát triển các kỹ năng tư duy phản biện là rất quan trọng đối với sinh viên sử dụng các công cụ AI. Các nhà giáo dục cần phải suy nghĩ về cách tiếp cận để nâng cao nhận thức của sinh viên về vai trò của “các người bạn điện tử”. Điều này yêu cầu sinh viên sử dụng công nghệ kĩ thuật số một cách có trách nhiệm, bổ sung cho các kỹ năng sinh viên đã tích lũy được. Người dùng có đạo đức kỹ thuật số cần biết cách đặt câu hỏi cho AI để Ai có thể gợi ý chính xác các câu trả lời có thể sử dụng. Ví dụ: thay vì hỏi một câu hỏi phức tạp, người dùng nên tham gia vào một cuộc trò chuyện tương tác qua lại với “người bạn điện tử” bằng một loạt câu hỏi tập trung xung quanh vấn đề cần hỏi.

Sinh viên cũng cần nhận ra những hạn chế của những công cụ này, AI chỉ hiệu quả trong nguồn dữ liệu được sử dụng để tạo ra chính nó. Chẳng hạn, bản phát hành thử nghiệm ban đầu của ChatGPT chỉ sử dụng nguồn dữ liệu thu nạp đến năm 2021; nó không bao gồm những sự kiện diễn ra sau đó. Ngoài ra, các công cụ AI thường duy trì sự thiên vị, như được minh họa bằng thuật toán tuyển dụng của Amazon và việc sử dụng trí tuệ nhân tạo trong hệ thống chăm sóc sức khỏe của Hoa Kỳ. Xu hướng này phát sinh do mô hình AI chỉ phân phối xác suất trên một chuỗi từ ngữ sử dụng trong nguồn dữ liệu đã thu nạp trước đó tạo thành. Sự tự tin của AI đối với phản hồi được chính nó tạo ra là rất nổi trội nhưng bị đặt nhầm chỗ – một AI có hiệu ứng Dunning-Kruger. Hiệu ứng Dunning-Kruger là một loại thiên kiến nhận thức khi chủ thể tự đánh giá khả năng của bản thân cao hơn trình độ thực tế.

Một người làm nghiên cứu có trách nhiệm không thể tuyên bố bản thân thiếu hiểu biết bằng cách nói: “Công nghệ đã làm việc đó giúp tôi”. Là những chuyên gia, con người có kỹ năng xác định sự thật từ những điều hư cấu. Tương tự, các cơ sở giáo dục có trách nhiệm cần đào tạo kỹ năng cho sinh viên để sinh viên trở thành công dân kỹ thuật số tốt.

Nắm bắt tốc độ phát triển của AI

Nhìn chung, do tốc độ thay đổi của AI nên những cuộc thảo luận về ý nghĩa đạo đức và xã hội của việc sử dụng AI diễn ra thường xuyên. Những tiến bộ của AI sẽ tiếp tục thay đổi nền kinh tế và điều chỉnh lại các công việc trong tương lai – tương tự như tác động mà máy tính cá nhân (Personal Computer hay PC) đã từng gây ra trước đó. Vì vậy, giáo viên không nên dạy sinh viên “lách luật” để giải quyết vấn đề trong thế giới máy tính.

Với các nguyên tắc đạo đức rõ ràng vẫn đang phát triển, nhiệm vụ đối mặt với AI của các cơ sở giáo dục đại học là đầy thách thức nhưng không thể trốn tránh. Quay lại hình thức thi viết tay không phải là giải pháp hiệu quả. Các nhà giáo dục cần kết hợp đạo đức kỹ thuật số vào phương pháp giảng dạy và học tập dựa trên thực tiễn để trang bị tốt các kỹ năng cho sinh viên.

Huyền Đức dịch

Nguồn: timeshighereducation

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *