-
Notifications
You must be signed in to change notification settings - Fork 38
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
add onnxruntime python host benchmark #414
add onnxruntime python host benchmark #414
Conversation
@FenixFly, два вопроса есть:
|
|
Ок, надо посмотреть.
Посмотрела таблицы с результатами. Какие-то странные местами скачки есть между моделями. Даже если взять 1.14 на хосте и в докере, по многим моделям расхождение очень небольшое, а по каким-то просто огромное, особенно это видно для int8-моделей. Взять bvlcalexnet-12 с весами int8, запуск на i3, в докере - ~91fps, на хосте - ~156. Я бы поняла, если это наблюдалось на всех таких моделях, но это не так, на последних двух моделях вообще в докер-образе работает быстрее, чем на хосте. Надо посмотреть внимательно на результаты, возможно перезапустить отдельные эксперименты, чтобы разобраться с такими эффектами. |
@FenixFly, а почему у моделей стоит формат исходного фреймворка везде pytorch, а не onnx? |
@valentina-kustikova перезапустил бенчмаркинг ONNX, результаты на слабой машине почти не отличаются, на 80-поточном сервере есть отличие, хотя там точно никого не было. |
Я делал запуск по одному изображению. Запуск с пачкой больше 1, вроде как, не проверял. |
@FenixFly, еще у меня вопрос возник, какая метрика пишется в csv, FPS или Batch FPS? |
Я проверил - всё работает. Командная строка: |
@ismukhin, спасибо! @FenixFly, в этом случае нужно добавить результаты экспериментов с пачками, превышающими 1. |
@valentina-kustikova Проверил модели из таблицы провалидированных моделей на поддержку. Действительно, модели |
No description provided.