Project

General

Profile

Support #13114

Updated by Pavel Belecky 3 months ago

h2. Работоспособность 

 Сделать, чтобы на минимальном примере, который есть в репозитории, пост-обработка работала без ошибок. 
 Для построения графиков использовался скрипт https://github.com/PlekhanovRUE/mpd_tpc_tracker/blob/dump-for-graphs/usage_example_several_runs.py 

 h3. нейросеть 

 Привести нейросеть в работоспособное состояние.  
 Если будет выбрана реализация нейросети, отличная от используемой для построения графиков, то необходимо чтобы эффективность работы нейросети была сопоставима с первоначальной реализацией. 

 Довести скрипт https://github.com/PlekhanovRUE/mpd_tpc_tracker/blob/parallel-analyse/parallel_analyse_example.py до работоспособного состояния.  
 Сравнить его работу с https://github.com/PlekhanovRUE/mpd_tpc_tracker/blob/master/usage_example.py. 
 При совпадении результатов использовать этот скрипт (parallel_analyse_example.py). 

 h3. Инструкция 

 Привести инструкцию к актуальному состоянию. 
 Указать ОС на которых тестировалась программка. 
 Это должна быть Linux, желательно ReadHat-based (i.e. Fedora). 
 Указать необходимые дополнительные данные, необходимые для запуска программы, 
 например версия python. 

 Программа должна воспроизводить результаты, которые приводятся в статье. 
 На данный момент у нас в статье приводятся графики и итоговая табличка. 
 Построение графиков состоит из двух этапов:  
 * работа python программы, программа, 
 * работа макрос root 

 В инструкции написать по python часть, про root сейчас добавлять не надо. будет добалено позже. 

 Итоговую табличку можно построить скриптом Джамили, count_fakes. 
 Написать про него. 


 По операционную систему: мне кажется достаточно Red Hat (Fedora) , на debian все почти тоже самое. Windows - не нужно. 
 Про python: обязательно указать версию. У нас что-то не работало на каких-то и версиях python 
 По поводу установки root: пока не надо . 

 h2. Дополнительно 

 Эта программа должна проводить анализ и после этого строить графики или только сохранять статистику? 
 > Построение результатов для статьи происходит в три этапа 
 > * Запуск usage_example_several_runs.py  
 > происходит выгрузка результатов постобработки в текстовые файлы 
 > * https://github.com/PlekhanovRUE/mpd_tpc_tracker/blob/dump-for-graphs/analyse/plotgraphs.C 
 > принимает на вход выгруженные данные на предыдущем этапе и строит графики 
 > И отдельно 
 > * https://github.com/PlekhanovRUE/mpd_tpc_tracker/blob/dump-for-graphs/analyse/count_fakes.py 
 > Для построения итоговой таблицы. 

 Должен ли быть выбор применяемых методов? 
 > Нет 

 Программа должна запускаться полностью из командой строки и принимать все параметры вроде директории с данными, количества потоков и тд как аргументы или оставить это как переменные в коде? 
 > Оставить как есть. Описать это в инструкции. 

 Должна ли инструкция включать шаги установки самих root и python?  
 > Нет 

 Прописывать ли отдельные пути инструкции для разных операционный систем (например команды специфичные для red hat или debian дистрибутивов)? 
 > Нет, на данном этапе сделать для одной. 

 Программе для работы требуются данные выгрузки. Для повторения результатов статьи это как я понимаю 10К событий, куда мы разместим эти данные? 
 > Далее в инструкции разместим как сгенерировать эти данные. 

 Включать ли в инструкцию шаги по загрузке этого датасета и его описание? 
 > Да.

Back