Крейг Мартелл, главный специалист Министерства обороны по цифровым технологиям и искусственному интеллекту, выразил свою обеспокоенность возможностью использования генеративного искусственного интеллекта для дезинформации. Он отметил, что такие языковые модели ИИ, как ChatGPT, не понимают контекста и могут создать реальную проблему, поскольку люди будут воспринимать их слова как факт.
Мартелл заявил, что ChatGPT был обучен свободно выражать свои мысли и говорить свободно и авторитетно. Это может привести к тому, что люди будут верить в неправильную информацию, которую он передает, что делает его идеальным инструментом для дезинформации. Он также отметил, что необходимы инструменты для выявления подобных ситуаций, но на данный момент они отсутствуют.
Мартелл призвал специалистов создать инструменты, которые обеспечат точность информации, полученной из всех генеративных моделей ИИ, включая текст и изображения. Он подчеркнул, что это крайне важно для борьбы с дезинформацией и сохранения доверия к информации.