Tóm tắt
Tính năng mới của Grammarly, cung cấp phản hồi viết từ góc nhìn của các “chuyên gia” nổi tiếng, đang gây tranh cãi từ các học giả cho rằng công cụ này dường như “hồi sinh” các học giả để xem xét công việc của người dùng. Tính năng này, gọi là Đánh giá Chuyên gia, phân tích văn bản và tạo ra phản hồi dựa trên quan điểm của các học giả, nhà báo và các chuyên gia khác. Nhiều trong số các chuyên gia mà công cụ AI này mô phỏng đã không còn sống—một đặc điểm mà một nhà sử học trung cổ trên BlueSky gọi là “đầy ảm đạm.” Ra mắt vào năm 2009 như một công cụ hỗ trợ viết và ngữ pháp dựa trên AI, công ty mẹ của Grammarly đã đổi tên thành Superhuman vào tháng 10 để phản ánh sự chuyển đổi từ một trợ lý viết đơn lẻ thành một bộ các tác nhân năng suất dựa trên AI, bao gồm các công cụ nghiên cứu, lập lịch, email và tự động hóa quy trình làm việc.
Grammarly đã giới thiệu tính năng Đánh giá Chuyên gia vào mùa hè năm ngoái. Thông qua tiện ích mở rộng trình duyệt Grammarly, người dùng chọn tham gia phiên bản Superhuman Go có thể chọn một chuyên gia và nhận phản hồi do AI tạo ra dựa trên lĩnh vực hoặc công trình đã xuất bản của học giả đó. “Một đại diện của Superhuman cho biết: ‘Chuyên gia Đánh giá của chúng tôi xem xét bài viết mà người dùng đang làm, dù đó là một bản tóm tắt marketing hay dự án sinh thái đa dạng sinh học của sinh viên, và tận dụng mô hình ngôn ngữ lớn của chúng tôi để đưa ra nội dung chuyên gia có thể giúp người viết hình thành công việc của họ,’” một người phát ngôn của Superhuman nói với Decrypt. “Các chuyên gia đề xuất phụ thuộc vào nội dung của bài viết đang được đánh giá.” Người phát ngôn giải thích, đại lý Đánh giá Chuyên gia không tuyên bố sự ủng hộ hoặc tham gia trực tiếp của các chuyên gia đó, mà cung cấp “gợi ý lấy cảm hứng từ các tác phẩm của các chuyên gia và hướng người dùng đến các tiếng nói có ảnh hưởng mà họ có thể khám phá sâu hơn.”
“Các chuyên gia trong Đánh giá Chuyên gia xuất hiện vì các tác phẩm đã xuất bản của họ có sẵn công khai và được trích dẫn rộng rãi,” họ nói. Khi thử nghiệm tính năng này cho bài viết này, các người đánh giá chuyên gia do ứng dụng đề xuất gồm Margaret Sullivan, nhà bình luận truyền thông và cựu biên tập viên của New York Times, Jack Shafer, cựu nhà báo truyền thông cao cấp của Politico, và Lawrence Lessig, giáo sư tại Harvard Law. Các lựa chọn khác gồm có nhà nghiên cứu đạo đức AI Timnit Gebru và Helen Nissenbaum, giáo sư khoa học thông tin tại Cornell Tech. Trong khi tính năng này nhằm giúp sinh viên và chuyên gia nâng cao khả năng viết của mình, Vanessa Heggie, giáo sư lịch sử tại Đại học Birmingham, đặt câu hỏi liệu các “người đánh giá” có đồng ý trước khi công ty sử dụng họ trong ứng dụng hay không. “Tôi không biết bắt đầu từ đâu, nhưng… Grammarly hiện đang cung cấp ‘đánh giá chuyên gia’ về công việc của bạn bởi các học giả còn sống và đã qua đời,” Heggie viết trên LinkedIn. “Đúng vậy, những người đã khuất—mà không có sự cho phép rõ ràng của ai đó, nó đang tạo ra các mô hình LLM nhỏ dựa trên công trình của họ và sử dụng tên tuổi cùng danh tiếng của họ. Thật ghê tởm.” Brielle Harbin, cựu phó giáo sư khoa học chính trị tại Học viện Hải quân Hoa Kỳ, gọi đó là “một sự phát triển kỳ lạ và đáng lo ngại.” “Những lựa chọn như vậy—đặc biệt khi được thực hiện mà không có bối cảnh, sự đồng ý hoặc hợp tác có ý nghĩa với các nhà giáo dục—có nguy cơ làm sâu sắc thêm sự hoài nghi về các công cụ AI trong giáo dục đại học,” cô viết trên LinkedIn. “Trớ trêu thay, những quyết định nhằm thúc đẩy việc chấp nhận có thể cuối cùng lại làm tăng sự phản kháng. Niềm tin và sự hợp tác hiện rất quan trọng.” Grammarly chỉ là một trong số các công ty tạo ra các chương trình AI nhằm bắt chước con người thật. Năm 2023, Meta đã phát hành dòng chatbot cho nền tảng Meta AI dựa trên các danh tính nổi tiếng, bao gồm Snoop Dogg, Tom Brady, Kendall Jenner và Naomi Osaka. Cùng năm đó, Khan Academy ra mắt trợ lý AI Khanmigo, cho phép học sinh đóng vai trò trò chuyện với các nhân vật lịch sử, bao gồm Thủ tướng Anh Winston Churchill, và gián điệp trong Nội chiến Mỹ cùng người chỉ huy Đường sắt ngầm Harriet Tubman.