Исследователи токийской компании Sakana.AI работали над созданием большой языковой модели (LLM), предназначенной специально для научных исследований.
Исследователи из Sakana.AI разработали модель искусственного интеллекта (ИИ), которая может автоматизировать весь процесс научных исследований.
«ИИ-ученый» может выявлять проблемы, разрабатывать гипотезы, реализовывать идеи, проводить эксперименты, анализировать результаты и писать отчеты.
Исследователи также использовали модель вторичного языка для экспертной оценки и качества этих отчетов, а также для подтверждения результатов.
«Мы думаем об этом как о своего рода моменте GPT-1 для генеративных научных открытий», — рассказал Роберт Ланге, научный сотрудник и один из основателей Sakana.AI, добавив, что, как и на ранних стадиях развития ИИ в других областях, его истинный потенциал в науке только начинает осознаваться.
Интеграция ИИ в научные исследования
Интеграция ИИ в науку столкнулась с некоторыми ограничениями из-за сложности этой области и постоянных проблем с этими инструментами, таких как галлюцинации и вопросы о праве собственности.
Тем не менее, его влияние в науке, возможно, уже более широко, чем многие думают, и исследователи часто используют его без явного раскрытия информации.
Ранее в этом году исследование, в котором анализировались шаблоны письма и использование конкретных слов в научных работах после выпуска теперь уже известного чат-бота на основе искусственного интеллекта ChatGPT, подсчитало, что около 60 000 научных работ могли быть улучшены или отшлифованы с использованием инструментов искусственного интеллекта.
Хотя использование ИИ в научных исследованиях может вызвать некоторые этические проблемы, при правильном подходе оно также может открыть возможности для новых достижений в этой области. Европейская комиссия заявляет, что ИИ может выступать «катализатором научных прорывов и ключевым инструментом в научном процессе».
Проект AI Scientist все еще находится на ранней стадии: исследователи опубликовали предварительную версию статьи в прошлом месяце, и система имеет ряд заметных ограничений.
Некоторые из недостатков, как подробно описывают исследователи, включают неправильную реализацию идей, несправедливые сравнения с исходными данными и критические ошибки в написании и оценке результатов.
Тем не менее, Ланге рассматривает эти проблемы как важные этапы и ожидает, что модель ИИ значительно улучшится с появлением дополнительных ресурсов и времени.
«Если задуматься об истории моделей машинного обучения, таких как модели генерации изображений, современные чат-боты, а также модели преобразования текста в видео, то зачастую они изначально имеют некоторые недостатки, а некоторые генерируемые изображения не слишком привлекательны визуально», — сказал Ланге.
«Но со временем, по мере того как мы как сообщество вкладываем больше коллективных ресурсов, они становятся намного более могущественными и гораздо более способными», — добавил он.
Инструмент для поддержки ученых, а не их замены
Во время испытаний ИИ-ученый временами демонстрировал определенную степень автономии, демонстрируя поведение, имитирующее действия людей-исследователей, например, предпринимая дополнительные неожиданные шаги для обеспечения успеха.
Например, вместо того чтобы оптимизировать свой код для более быстрой работы, когда эксперимент занял больше времени, чем ожидалось, он попытался изменить свои настройки, чтобы увеличить лимит времени.
Тем не менее, по словам его создателей, ИИ-ученый не призван заменить исследователей-людей, а должен дополнять их работу.
«Я думаю, что многие инструменты ИИ, как мы надеемся, не заменят людей полностью, а скорее позволят людям работать на том уровне абстракции, на котором они хотят работать и в котором они действительно очень хороши», — сказал Ланге.
Он также объяснил, что, учитывая текущие ограничения моделей ИИ, человеческая проверка по-прежнему важна для обеспечения точности и надежности исследований, созданных ИИ. Они также останутся важными в таких областях, как рецензирование и определение направлений исследований, сказал он.
Этическое использование ИИ в науке
Ланге подчеркивает, что по мере того, как интеграция ИИ в научные исследования прогрессирует, прозрачность становится необходимой.
Один из способов сделать это — добавлять водяные знаки к документам, созданным с помощью ИИ, что может гарантировать открытость вклада ИИ.
«Я большой сторонник того, чтобы все эти вещи разрабатывались коллективно и итеративно, чтобы мы могли быть уверены в их безопасном развертывании», — сказал Ланге.
Наличие открытого исходного кода для моделей и прозрачность их разработки также могли бы способствовать этическому использованию этих систем ИИ в науке.
«Мы думаем, что модели с открытым исходным кодом могут многое добавить к этой дискуссии. Так что, по сути, в плане демократизации, я думаю, учитывая, что этот процесс настолько дешев, каждый может принять участие и должен принять участие как можно раньше», — сказал Ланге.
Он добавил, что надеется, что проект AI Scientist положит начало более широкому обсуждению будущего научных исследований и места ИИ в них.
«Мы надеемся, что эта статья или этот проект смогут спровоцировать в сообществе большую дискуссию о том, как вести науку в ближайшие годы, а также, возможно, в более широком масштабе, о том, что на самом деле, по своей сути, является научным вкладом».