ГАМИЛЬТОН – Кризис гуманитарных наук вызвал множество споров, а недавние прорывы в области искусственного интеллекта лишь усилили тревогу. Автоматизация угрожает работе не только водителей грузовиков. Алгоритмы глубокого обучения также входят в сферу творческой деятельности. И сейчас они демонстрируют мастерство в выполнении задач, которыми занимаются профессора гуманитарных наук, когда они не читают лекции: а именно пишут статьи и представляют их для публикации в научных журналах.
Можно ли автоматизировать научные публикации? В сентябре 2020 года алгоритм глубокого обучения OpenAI, GPT-3, продемонстрировал впечатляющие журналистские способности, написав заслуживающий доверия комментарий Guardian на тему “почему людям не стоит бояться ИИ”. А ранее в этом году шведский психиатр Альмира Османович Тунстрем попросила тот же алгоритм написать статью для научного журнала.
Тунстрем была менее требовательной, чем редакторы Guardian. Она поручила алгоритму просто: “Написать научную диссертацию из 500 слов о GPT-3 и добавить в текст научные ссылки и цитаты”. Она сообщает о том, что “статья GPT-3 в настоящее время опубликована на международном французском сервере препринтов HAL и… ожидает рассмотрения в научном журнале”. Даже если статья будет отклонена, это предвещает эпоху, когда статьи ИИ перестанут существовать.
ГАМИЛЬТОН – Кризис гуманитарных наук вызвал множество споров, а недавние прорывы в области искусственного интеллекта лишь усилили тревогу. Автоматизация угрожает работе не только водителей грузовиков. Алгоритмы глубокого обучения также входят в сферу творческой деятельности. И сейчас они демонстрируют мастерство в выполнении задач, которыми занимаются профессора гуманитарных наук, когда они не читают лекции: а именно пишут статьи и представляют их для публикации в научных журналах.
Можно ли автоматизировать научные публикации? В сентябре 2020 года алгоритм глубокого обучения OpenAI, GPT-3, продемонстрировал впечатляющие журналистские способности, написав заслуживающий доверия комментарий Guardian на тему “почему людям не стоит бояться ИИ”. А ранее в этом году шведский психиатр Альмира Османович Тунстрем попросила тот же алгоритм написать статью для научного журнала.
Тунстрем была менее требовательной, чем редакторы Guardian. Она поручила алгоритму просто: “Написать научную диссертацию из 500 слов о GPT-3 и добавить в текст научные ссылки и цитаты”. Она сообщает о том, что “статья GPT-3 в настоящее время опубликована на международном французском сервере препринтов HAL и… ожидает рассмотрения в научном журнале”. Даже если статья будет отклонена, это предвещает эпоху, когда статьи ИИ перестанут существовать.