Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

add onnxruntime python host benchmark #414

Merged

Conversation

FenixFly
Copy link
Contributor

No description provided.

@valentina-kustikova
Copy link
Contributor

valentina-kustikova commented Oct 16, 2023

@FenixFly, два вопроса есть:

  1. Где html-таблицы результатов?
  2. Ждать здесь результаты для версии 1.16.0 при запуске через докер? По смыслу надо и то, и другое...
  3. Почему у моделей стоит формат исходного фреймворка везде pytorch, а не onnx?

@FenixFly
Copy link
Contributor Author

@valentina-kustikova

  1. HTML конвертер не может создавать таблицу для результатов бенчмаркинга ONNX (пример текущей работы пришлю в телерам).
  2. 1.16 в докере будут попозже, для этого желательно обновить докер onnx до 1.16

@valentina-kustikova
Copy link
Contributor

@valentina-kustikova

  1. HTML конвертер не может создавать таблицу для результатов бенчмаркинга ONNX (пример текущей работы пришлю в телерам).

Ок, надо посмотреть.

  1. 1.16 в докере будут попозже, для этого желательно обновить докер onnx до 1.16

Посмотрела таблицы с результатами. Какие-то странные местами скачки есть между моделями. Даже если взять 1.14 на хосте и в докере, по многим моделям расхождение очень небольшое, а по каким-то просто огромное, особенно это видно для int8-моделей. Взять bvlcalexnet-12 с весами int8, запуск на i3, в докере - ~91fps, на хосте - ~156. Я бы поняла, если это наблюдалось на всех таких моделях, но это не так, на последних двух моделях вообще в докер-образе работает быстрее, чем на хосте. Надо посмотреть внимательно на результаты, возможно перезапустить отдельные эксперименты, чтобы разобраться с такими эффектами.

@valentina-kustikova
Copy link
Contributor

@FenixFly, а почему у моделей стоит формат исходного фреймворка везде pytorch, а не onnx?

@FenixFly
Copy link
Contributor Author

@valentina-kustikova перезапустил бенчмаркинг ONNX, результаты на слабой машине почти не отличаются, на 80-поточном сервере есть отличие, хотя там точно никого не было.

@valentina-kustikova
Copy link
Contributor

@FenixFly, в таблице с результатами запуска в docker-образе не указана информация о вычислительных узлах.

@ismukhin, подскажите, пожалуйста, когда выполняли валидацию onnx-моделей, то они тоже не работали на пачки, большей 1?

@ismukhin
Copy link
Contributor

ismukhin commented Nov 4, 2023

@FenixFly, в таблице с результатами запуска в docker-образе не указана информация о вычислительных узлах.

@ismukhin, подскажите, пожалуйста, когда выполняли валидацию onnx-моделей, то они тоже не работали на пачки, большей 1?

Я делал запуск по одному изображению. Запуск с пачкой больше 1, вроде как, не проверял.

@valentina-kustikova
Copy link
Contributor

valentina-kustikova commented Nov 4, 2023

@FenixFly, еще у меня вопрос возник, какая метрика пишется в csv, FPS или Batch FPS?

@ismukhin
Copy link
Contributor

ismukhin commented Nov 4, 2023

@FenixFly, в таблице с результатами запуска в docker-образе не указана информация о вычислительных узлах.

@ismukhin, подскажите, пожалуйста, когда выполняли валидацию onnx-моделей, то они тоже не работали на пачки, большей 1?

Я проверил - всё работает. Командная строка: python3 ./inference_onnx_runtime.py -m ../../resnet50-v2-7.onnx -i ../../img/apple.JPEG,../../img/bird.JPEG,../../img/ship.JPEG -t classification -b 3

@valentina-kustikova
Copy link
Contributor

@FenixFly, в таблице с результатами запуска в docker-образе не указана информация о вычислительных узлах.
@ismukhin, подскажите, пожалуйста, когда выполняли валидацию onnx-моделей, то они тоже не работали на пачки, большей 1?

Я проверил - всё работает. Командная строка: python3 ./inference_onnx_runtime.py -m ../../resnet50-v2-7.onnx -i ../../img/apple.JPEG,../../img/bird.JPEG,../../img/ship.JPEG -t classification -b 3

@ismukhin, спасибо!

@FenixFly, в этом случае нужно добавить результаты экспериментов с пачками, превышающими 1.

@FenixFly
Copy link
Contributor Author

@valentina-kustikova Проверил модели из таблицы провалидированных моделей на поддержку. Действительно, модели
mobilenetv2-12 и resnet152-v1-7 поддерживают изменение пачки, поэтому я добавил для них результаты с пачкой 8. Для остальных моделей в коде модели зашит входной шейп [1,3,224,224], и бенчмарк падает когда я пытаюсь на вход подать пачку 8. Еще добавил в таблицу результатов docker названия процессоров вручную.

@valentina-kustikova valentina-kustikova merged commit 0a54a85 into itlab-vision:master Nov 18, 2023
3 checks passed
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

3 participants