Новая функция Grammarly с искусственным интеллектом, которая предоставляет обратную связь по письму с предполагаемой точки зрения известных «экспертов», вызывает критику со стороны академиков, утверждающих, что инструмент, похоже, «воскрешает» учёных для оценки работ пользователей. Эта функция, называемая Expert Review, анализирует текст и генерирует отзывы, оформленные с точки зрения конкретных учёных, журналистов и других специалистов. Многие из экспертов, которых имитирует ИИ-инструмент, уже умерли — что один средневековый историк на BlueSky назвал «мрачно». Запущенная в 2009 году как инструмент для помощи в написании и грамматике с использованием ИИ, материнская компания Grammarly в октябре переименовалась в Superhuman, чтобы отразить переход от одного помощника по письму к набору ИИ-агентов для повышения продуктивности, включающих инструменты для исследований, планирования, электронной почты и автоматизации рабочих процессов.
В прошлом летом Grammarly представила функцию Expert Review. Через расширение браузера Grammarly пользователи, выбравшие версию Superhuman Go, могут выбрать эксперта и получать отзывы, созданные ИИ, на основе области знаний или опубликованных работ этого учёного. «Наш агент Expert Review анализирует работу пользователя, будь то маркетинговый бриф или студенческий проект по биоразнообразию, и использует нашу базу данных LLM для поиска экспертного контента, который может помочь автору сформировать свою работу», — сообщил представитель Superhuman в Decrypt. «Выбор экспертов зависит от содержания оцениваемого текста». Представитель объяснил, что агент Expert Review не утверждает, что эксперты одобряют работу или участвуют в ней напрямую, а предлагает «предложения, основанные на работах экспертов, и направляет пользователей к влиятельным голосам, чью научную деятельность они могут изучить более подробно».
«Эксперты в Expert Review появляются потому, что их опубликованные работы доступны публично и широко цитируются», — добавили они. При тестировании этой функции для этой статьи, эксперты, предложенные приложением, включали Меган Салливан, медиа-колумниста и бывшего редактора New York Times, Джека Шафера, бывшего старшего медиа-редактора Politico, и Лоуренса Лесигу, профессора Гарвардской юридической школы. Также в списке были исследователь этики ИИ Тимнит Гебру и Хелен Ниссенбаум, профессор информационных наук в Cornell Tech. Хотя цель функции — помочь студентам и профессионалам улучшить навыки письма, Ванесса Хегги, профессор истории Бирмингемского университета, поставила под сомнение, давали ли «рецензенты» своё согласие на использование их в приложении. «Я не знаю, с чего начать, но… Grammarly теперь предлагает «экспертный обзор» вашей работы живыми и умершими учёными», — написала Хегги в LinkedIn. «Да, умершими — без чьего-либо явного разрешения создаются маленькие LLM на основе их опубликованных работ, и их имена и репутации используются. Это отвратительно.» Бриелл Харбин, бывший доцент политологии в Военно-морской академии США, назвала это «странительным и тревожным развитием». «Такие решения — особенно когда их принимают без контекста, согласия или значимого сотрудничества с педагогами — рискуют усилить скептицизм по поводу ИИ-инструментов в высшем образовании», — написала она в LinkedIn. «Иронично, что решения, предназначенные для ускорения внедрения, могут в итоге усилить сопротивление. Доверие и сотрудничество сейчас очень важны.» Grammarly — лишь одна из компаний, создающих ИИ-программы, имитирующие реальных людей. В 2023 году Meta выпустила серию чатботов для своей платформы Meta AI, основанных на личностях знаменитостей, включая Snoop Dogg, Тома Брэди, Кендалл Дженнер и Наоми Осака. В том же году Khan Academy запустила своего ИИ-учителя Khanmigo, который позволяет студентам разыгрывать диалоги с историческими фигурами, включая премьер-министра Великобритании Уинстона Черчилля и шпиона Гражданской войны США и проводника «Подземной железной дороги» Харриет Тубман.