В Томском политехе разрабатывают ПО для автоматизации анализа больших данных

25 марта 2019

В Томском политехе разрабатывают ПО для автоматизации анализа больших данных

Ученые Томского политехнического университета (ТПУ) разрабатывают методы, алгоритмы и программное обеспечение, которые помогут промышленным и научным предприятиям анализировать большие объемы измерительных данных. Проект получил поддержку Российского научного фонда, сообщает пресс-служба вуза.

Работы выполняются сотрудниками научно-образовательной лаборатории систем управления, автоматизации и повышения энергоэффективности высокотехнологичных производств и ТЭК, которой руководит профессор отделения автоматизации и робототехники ТПУ, заведующий лабораторией систем управления, автоматизации и повышения энергоэффективности высокотехнологичных производств и ТЭК Сергей Муравьев.

Проект реализуется в рамках стратегии научно-технологического развития России. Цель стратегии до 2035 года — создание отечественных продуктов и технологий, отвечающих современных требованиям, вывод на новые рынки наукоемких разработок. В документе прописаны приоритетные направления: развитие систем, способных обрабатывать большие объемы данных, искусственный интеллект и машинное обучение, персонифицированная медицина и другие.

«В нашем проекте важная роль отведена математике. Его результатом станут методы и алгоритмы оценивания параметров сложных объектов. Создаваемое на их базе программное обеспечение может найти применение на самых разных предприятиях и в организациях, чья деятельность связана с анализом данных в большом объеме», — говорит Сергей Муравьев.

Профессор поясняет, что типичной проблемой для больших данных является необходимость автоматизации их анализа. В рамках проекта политехники разработают комплекс типовых методик для решения нескольких практических задач, в числе которых автоматизированное визуальное распознавание дефектов сварных соединений, повышение точности результатов измерений узлов беспроводной сенсорной сети, оценивание неопределенностей значений фундаментальных физических констант.

«Мы используем термин "комплексирование данных" (data fusion). Это процесс совместной обработки данных о некотором объекте, предоставленных несколькими источниками», — объясняет профессор научную сторону проекта.

Он добавляет, что в теории и практике измерений широко используется описание их результатов в форме интервалов: «Процедура комплексирования интервальных данных заключается в формировании такого результирующего интервала, который согласован с максимальным количеством исходных данных».

В качестве примера ученый приводит задачу обработки данных экологического мониторинга, когда данные, например, о концентрации вредных веществ (таких тяжелых металлов, как кобальт, цинк, хром, медь) в почве и водных ресурсах на обширной труднодоступной территории собираются в течение длительного времени с помощью беспроводных сенсорных сетей.

«Необходимо, чтобы этим данным и результатам их оценивания можно было доверять и принимать на их основе правильные решения по снижению степени загрязнения и охране окружающей среды. Наши методы и алгоритмы помогут качественно и быстро это сделать», — говорит профессор.

Таким образом, подчеркивает Муравьев, разрабатываемое программное обеспечение поможет автоматизировать процесс анализа большого объема данных.

По его словам, существующие методы комплексирования интервальных данных не обеспечивают его стопроцентную достоверность. Поэтому есть необходимость в разработке метода, позволяющего на основании неполных данных дать результат с повышенной точностью. В ходе проекта ученые ТПУ разработают и проведут теоретические и экспериментальные исследования метода комплексирования интервальных неравноточных измерительных данных. Окончание работ запланировано на декабрь 2020 года.


Похожие новости: