Sinh viên viết hay bị
nghi dùng AI : Ai có quyền phán xét ? -
Mai Phúc Thịnh / Tia Sáng
20/07/2025
https://tiasang.com.vn/giao-duc/sinh-vien-viet-hay-bi-nghi-dung-ai-ai-co-quyen-phan-xet/
Việc các giảng viên chia sẻ công khai kết luận
dựa trên AI detector, đôi khi đính kèm tên sinh viên hoặc trích đoạn bài viết,
cũng đặt ra một câu hỏi đạo đức nghiêm trọng: từ khi nào giáo dục cho phép phán
xét công khai mà không cần kiểm chứng? Và từ khi nào, một bài viết hay lại trở
thành cái cớ để nghi ngờ, thay vì là dấu hiệu của sự tiến bộ trong học thuật?
AI nói có tội, nhưng không ai có bằng chứng
Không lâu trước đây, một sinh viên ngành xã hội
gửi bài luận cuối kỳ cho giảng viên của mình. Bài viết được trình bày mạch lạc,
dẫn chứng phong phú, văn phong chuẩn mực. Nhưng thay vì nhận được phản hồi học
thuật, em bị thầy gọi lên và chỉ vào một con số: “AI detector báo 85% bài này
là do máy viết.” Bài bị trừ điểm. Không có phiên giải. Không có bằng chứng đối
chiếu. Chỉ có một kết luận từ một công cụ không ai hiểu rõ cơ chế.
Tình huống ấy không còn là hi hữu. Trong nhiều
môi trường học thuật, các phần mềm phát hiện văn bản do AI tạo ra đang được sử
dụng như một “tòa án nhanh”, nơi sinh viên bị phán xét bằng phần trăm, thay vì
được hỏi han bằng một câu trò chuyện. Từ Turnitin AI, GPTZero cho tới các công
cụ nội bộ chưa qua kiểm chứng, giáo dục đang chứng kiến một làn sóng “máy móc
hóa niềm tin”, nơi giáo viên có thể ngừng lắng nghe học trò chỉ vì một chỉ số đỏ
hiện ra trên màn hình.
Câu hỏi đặt ra không còn xoay quanh việc sinh
viên có sử dụng AI hay không. Mà là: nếu một bài viết được chấm là “do
AI viết”, nhưng không ai chứng minh được, thì ai là người có quyền phán xét? Và
rộng hơn, chúng ta cần tự hỏi: phán xét ấy dựa trên tri thức sư phạm,
hay chỉ là niềm tin mù quáng vào những thuật toán chưa minh bạch?
Công cụ chưa hoàn thiện, niềm tin đã tuyệt đối
Chỉ trong hơn một năm, các công cụ phát hiện
văn bản do AI tạo sinh, như GPTZero, Turnitin AI, Copyleaks, đã xuất hiện dày đặc
trong các trường học, từ Mỹ, Anh đến châu Á. Chúng được sử dụng với mục tiêu đầy
thiện chí: giúp giáo viên phát hiện dấu hiệu của “lạm dụng AI” trong học tập.
Nhưng chính những công cụ ấy đang dần trở thành nơi gửi gắm quá mức niềm tin,
và cả quyền lực phán xét.
Một nghiên cứu công bố trên tạp chí Patterns (2023),
do nhóm tác giả từ Stanford thực hiện, đã chỉ ra rằng các công cụ phát hiện văn
bản do AI tạo ra, bao gồm GPTZero, DetectGPT, và một số mô hình khác, có xu hướng
đánh nhầm bài viết của người dùng tiếng Anh không phải bản ngữ là do AI sinh ra. Cụ
thể, hơn 61% các bài luận TOEFL do sinh viên quốc tế viết đã bị các hệ thống
này phân loại sai, trong khi các bài viết của học sinh lớp 8 người Mỹ lại gần
như không bị ảnh hưởng.
https://cdn.tiasang.com.vn/tiasang-media/2025/07/AI-detector-anh-2.jpg
Giáo dục, xét đến cùng là không gian của những
cuộc gặp gỡ giữa con người với nhau. Ảnh: Lễ tốt nghiệp của Đại học Quốc gia Hà
Nội năm 2015/Fanpage trường.
Báo cáo chính thức từ Stanford HAI cũng cảnh
báo rằng: không một công cụ AI detector hiện nay nào đạt được độ chính xác và
minh bạch đủ để được xem là căn cứ cho các quyết định mang tính kỷ luật trong
giáo dục, như buộc tội đạo văn hay gian lận học thuật. Việc sử dụng những công
cụ chưa được kiểm định rõ ràng không chỉ tiềm ẩn sai sót mà còn làm dấy lên lo
ngại về thiên kiến, đặc biệt với các nhóm sinh viên thiểu số ngôn ngữ hoặc đến
từ nền giáo dục không sử dụng tiếng Anh.
Trong khi các trường đại học lớn ở nước ngoài
bắt đầu cân nhắc dừng triển khai AI detector diện rộng thì tại Việt Nam, những
công cụ này lại đang được một số giảng viên áp dụng với tốc độ chóng mặt, không
qua hướng dẫn, không qua thử nghiệm. Có nơi, bài luận bị trừ 20–40% điểm chỉ vì
phần mềm báo hơn 50% “AI likelihood”. Có trường hợp sinh viên viết bài phản biện
tốt, văn phong chắc chắn, nhưng bị yêu cầu viết lại toàn bộ vì kết quả “chưa an
toàn”.
Câu chuyện không dừng ở con số. Khi điểm số,
và cả niềm tin, bị quyết định bởi những dòng code chưa minh bạch, nền giáo dục
sẽ không còn dựa trên hiểu biết, mà trên… xác suất. Và một khi thầy cô thôi hỏi
“em nghĩ gì khi viết đoạn này?”, mà chỉ nhìn vào phần trăm hiện lên trên màn
hình, thì mối quan hệ giữa người dạy và người học sẽ không còn là giáo dục, mà
là kiểm soát.
Khi giáo dục đánh mất sự gần gũi
Chúng ta đã quen với việc phát hiện đạo văn bằng
những công cụ như Turnitin cổ điển, nơi mỗi đoạn văn đều có thể được so sánh, đối
chiếu với một nguồn cụ thể. Đó là cơ chế có thể kiểm tra được, có minh chứng,
và ít nhiều vẫn cho người học cơ hội giải thích.
Nhưng với văn bản do AI tạo sinh, hoặc bị
nghi là như vậy, không có “nguồn gốc” để truy ra. Không có câu trích dẫn nào để
đối chiếu, không có tài liệu nào để khẳng định. Chỉ có một con số dựa trên xác
suất, đưa ra bởi mô hình huấn luyện mà người chấm không hề biết nó được xây dựng
trên dữ liệu gì. Mọi phán quyết lúc này đều mơ hồ. Mà giáo dục, nếu muốn giữ lại
phẩm giá của người học, không thể dựa trên sự mơ hồ để trừng phạt.
Nhà lý luận Sara Ahmed từng viết rằng, đạo đức
không chỉ là nguyên tắc, mà là sự gần gũi (ethics of proximity), một sự dấn
thân cảm xúc, nơi người dạy không xa rời người học như một thẩm phán lạnh lùng,
mà gặp gỡ họ trong không gian của sự quan tâm và hiểu biết. Trong khi đó, nhà
giáo dục Gert Biesta nhấn mạnh rằng, giáo dục không phải là nơi để “đo lường và
giám sát”, mà là một quá trình tương tác, nơi người học được nhìn nhận như một
chủ thể đang hình thành, không phải một đối tượng cần bị bắt lỗi.
https://cdn.tiasang.com.vn/tiasang-media/2025/07/AI-detector-anh-3.jpg
Có nhiều cách thiết kế lại bài tập, tổ chức
các buổi viết phản hồi trực tiếp để giảm sự phụ thuộc vào AI. Ảnh: Hội nghị
Khoa học sinh viên trường Đại học Khoa học Tự nhiên, Đại học Quốc gia Hà Nội/Fanpage
trường.
Đặt trong tinh thần ấy, ta cần tự hỏi: liệu
khi dựa vào AI detector để kết luận và trừ điểm, ta đang còn dạy học hay đang
giám sát sinh viên? Liệu có lúc nào đó, chúng ta, những người làm giáo dục, đã
từ bỏ việc lắng nghe người học để chạy theo một công cụ được mặc định là “khách
quan”, nhưng bản thân nó lại thiếu minh bạch và không chịu trách nhiệm?
Giáo dục, nếu bị thay thế bởi các cơ chế đánh
giá dựa trên niềm tin vào máy móc, sẽ không còn là không gian nuôi dưỡng con
người. Nó sẽ trở thành nơi sinh viên học cách né tránh, mô phỏng, và viết theo
khuôn để không bị gắn nhãn. Và khi đó, không còn ai thực sự học nữa, chỉ còn những
người đang diễn cho vừa lòng các thuật toán.
Niềm tin vào máy móc và sự im tiếng của người
học
Trên các nhóm học thuật lớn tại Việt Nam, từ
cộng đồng giảng viên đại học đến các nhóm nghiên cứu chuyên môn, các thảo luận
xoay quanh việc “phát hiện sinh viên dùng AI” diễn ra ngày càng sôi nổi, và đầy
kịch tính. Nhiều giảng viên không ngần ngại chia sẻ những ảnh chụp màn hình từ
GPTZero hay Turnitin AI với tỷ lệ phần trăm kèm theo các tuyên bố: “Bài này chắc
chắn do AI viết.” Có người nói thẳng: “Nhìn văn là biết,” “Sinh viên mà viết mạch
lạc vậy là đáng nghi.” Phần lớn trong các thảo luận đó, người học vắng mặt như
một đối tượng bị xét xử, không có quyền phản hồi, không có cơ hội được nghe hỏi:
Em nghĩ gì? Em viết sao?
Sự lan rộng của văn hóa “nghi ngờ mặc định”
này phần nào phản ánh một trạng thái tâm lý dễ hiểu: lo sợ bị qua mặt, bị đánh
lừa, bị mất kiểm soát trước sự phát triển của công nghệ. Nhưng điều đáng nói là
niềm tin vào công cụ, dù chưa được kiểm chứng, lại đang dần thay thế trách nhiệm
sư phạm, nơi lẽ ra người dạy cần đóng vai trò tạo điều kiện cho sự phát triển
tư duy, chứ không phải là một lực lượng trấn áp.
Việc các giảng viên chia sẻ công khai kết luận
dựa trên AI detector, đôi khi đính kèm tên sinh viên hoặc trích đoạn bài viết,
cũng đặt ra một câu hỏi đạo đức nghiêm trọng: từ khi nào giáo dục cho phép phán
xét công khai mà không cần kiểm chứng? Và từ khi nào, một bài viết hay lại trở
thành cái cớ để nghi ngờ, thay vì là dấu hiệu của sự tiến bộ trong học thuật?
Trong môi trường đó, người học buộc phải viết
“giả ngu”, viết lửng lơ, cắt nghĩa dở, để tránh bị nghi là máy móc. Những bài
viết chỉn chu trở thành đối tượng nghi vấn, trong khi những bài rối rắm đôi khi
lại được tha. Đó là một sự đảo ngược của logic giáo dục, nơi chất lượng không
còn được thưởng, mà bị xét xử.
Thế giới đang phản tư, còn ta có đang
đi quá nhanh?
Trong khi một số cơ sở giáo dục tại Việt Nam
bắt đầu sử dụng AI detector như một giải pháp mặc định để kiểm soát chất lượng
học tập, thì ở nhiều đại học lớn trên thế giới, làn sóng phản tư đang mạnh mẽ nổi
lên. Đại học Stanford, Đại học Cambridge và các khối Ivy League đã công khai
bày tỏ lo ngại về tính không đáng tin cậy của các công cụ phát hiện AI, đặc biệt
là khi sử dụng để đưa ra kết luận đánh giá học thuật có hệ quả. Một số trường
đã đưa ra khuyến nghị tạm dừng sử dụng các phần mềm này, hoặc chỉ dùng như một
công cụ tham khảo, không mang tính quyết định.
Tạp chí Chronicle of Higher Education (2024)
cũng ghi nhận rằng nhiều nhà quản lý giáo dục và giảng viên tại Mỹ bắt đầu chuyển
hướng từ việc “bắt lỗi” sang “trao quyền”, bằng cách thiết kế lại bài tập, tổ
chức các buổi viết phản hồi trực tiếp, và yêu cầu sinh viên giải thích quá
trình hình thành ý tưởng trong bài viết. Thay vì hỏi “AI có viết không?”, họ hỏi
“em đã học được gì khi viết bài này?”
Những mô hình thay thế không phải là không tồn
tại. Từ phỏng vấn mini (oral defenses) đến portfolios phản tư, từ bài tập nhóm
có giám sát đến viết phản hồi theo từng giai đoạn, tất cả đều giúp khôi phục mối
quan hệ người, người trong giáo dục, giảm phụ thuộc vào máy móc. Đó là những
hình thức đánh giá không loại trừ AI, nhưng cũng không thần thánh hóa nó như một
công cụ giám sát đạo đức.
Trong bối cảnh đó, câu hỏi đặt ra không phải
là “chúng ta có nên dùng AI hay không”, mà là: “Chúng ta có đang hiểu đúng vai
trò của người dạy trong thời đại AI?” Nếu giáo dục không đi cùng minh bạch, đối
thoại, và nhân tính, thì dù có thêm hàng chục công cụ phát hiện, điều còn lại
chỉ là vỏ bọc kỹ trị cho một nền học thuật mất đi sự sống.
Trả lại giáo dục cho con người
Không ai phủ nhận tốc độ phát triển vượt bậc
của trí tuệ nhân tạo. Không ai phản đối việc tận dụng công nghệ để hỗ trợ giảng
dạy. Nhưng cũng không ai nên quên rằng: giáo dục, xét đến cùng, là không gian của
những cuộc gặp gỡ giữa con người với nhau.
Một bài viết có thể gọn gàng nhờ AI, nhưng một
con người trưởng thành không thể được “tạo sinh” chỉ qua vài dòng lệnh. Một giảng
viên có thể dùng công cụ để tham khảo, nhưng không thể để công cụ thay thế cho
sự cảm nhận, trò chuyện, và thấu hiểu, những điều vốn làm nên nghề dạy học từ
thuở sơ khai. Không một AI detector nào, dù chính xác đến đâu, có thể nhìn thấy
ánh mắt phân vân của sinh viên khi nộp bài, hoặc bắt gặp sự nỗ lực chân thành nằm
sau một đoạn văn gãy gọn.
Việc “nghi ngờ mặc định” và “trừ điểm dựa
trên xác suất” có thể giúp giáo viên cảm thấy kiểm soát được tình hình trong ngắn
hạn. Nhưng về lâu dài, nó đẩy sinh viên ra xa khỏi niềm tin, khỏi sáng tạo, và
khỏi chính năng lực phản tư của mình. Chúng ta sẽ đào tạo ra những người viết để
qua mặt máy móc, chứ không phải để khai mở suy nghĩ.
Triết lý giáo dục, dù dưới hình hài Dewey,
Freire hay Biesta, đều nhất quán ở một điểm: giáo dục là mối quan hệ giữa người,
với, người, trong đó sự tin cậy không thể thay bằng thuật toán, và học tập là
hành trình trở thành, chứ không phải quá trình lọc nhiễu.
Và nếu vẫn còn ai hỏi: “Làm sao biết
một bài là do người viết hay do AI?”, thì có lẽ điều đáng lo không phải là
bài viết ấy. Mà là chỗ đứng của người thầy, đã lùi lại tới đâu trong không gian
của giáo dục hôm nay.□
——
ThS. Mai Phúc Thịnh, nghiên cứu viên giáo dục
độc lập.
* Bài viết này phản ánh quan điểm cá
nhân của tác giả.
Tài liệu tham khảo
Ahmed, S. (2012). On Being Included:
Racism and Diversity in Institutional Life. Duke University Press.
Biesta, G. (2010). Good Education in
an Age of Measurement: Ethics, Politics, Democracy. Routledge.
Bowen, J. A., & Watson, C. E.
(2024). AI Detection Is a Business. But Should It Be Faculty Business? The
Chronicle of Higher Education. Available at: https://www.chronicle.com/article/ai-detection-is-a-business-but-should-it-be-faculty-business
CITL, Center for Innovative Teaching and
Learning at Northern Illinois University. (2024, December 12). AI
Detectors: An Ethical Minefield. Available at: https://citl.news.niu.edu/2024/12/12/ai-detectors-an-ethical-minefield/
Dede, C. (2023). Educating in a World
of Artificial Intelligence. Harvard EdCast. Harvard Graduate
School of Education. Available at: https://www.gse.harvard.edu/ideas/edcast/23/02/educating-world-artificial-intelligence
Dewey, J. (1916). Democracy and
Education: An Introduction to the Philosophy of Education. Macmillan.
Freire, P. (1970). Pedagogy of the
Oppressed. Herder and Herder.
Porayska-Pomsta, K., Holmes, W., &
Nemorin, S. (2024). The Ethics of AI in Education. arXiv
preprint. Available at: https://arxiv.org/abs/2406.11842
Selwyn, N. (2019). Should Robots
Replace Teachers? AI and the Future of Education. Polity Press.
The Stanford Institute for Human-Centered AI
(HAI). (2023). AI-Detectors Biased Against Non-Native English Writers.
Available at: https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers
Bài đăng Tia Sáng số 13/2025
No comments:
Post a Comment