ИИ предсказывает результаты исследований лучше людей

У больших языковых моделей огромный потенциал в качестве инструмента для ускорения научного прогресса.
Большие языковые модели (LLM), в том числе те, что лежат в основе популярных генеративных ИИ, включая ChatGPT, традиционно известны способностями к обобщению и извлечению знаний из огромных массивов данных. Однако новая работа исследовательской группы Университетского колледжа Лондона (UCL) под руководством доктора Кена Луо показала, что их возможности выходят за рамки простого извлечения информации из прошлого. Эти модели способны синтезировать данные и прогнозировать будущие результаты экспериментов.
«Научный прогресс часто связан с методом проб и ошибок, что требует значительных временных и ресурсных затрат. Даже опытные ученые могут упускать важные закономерности в литературе. Наше исследование демонстрирует, что LLM могут выявлять такие закономерности и с высокой точностью предсказывать результаты экспериментов», — поясняет доктор Луо.
Чтобы проверить способности языковых моделей, специалисты создали инструмент под названием BrainBench. Этот инструмент включал пары аннотаций к научным статьям по нейронауке. В каждой паре одна аннотация представляла собой реальное описание исследования с правильными результатами, в то время как другая содержала аналогичные методы и исходные данные, но с намеренно модифицированными и ошибочными выводами.