- Marcar como nuevo
- Favorito
- Suscribir
- Silenciar
- Suscribirse a un feed RSS
- Resaltar
- Imprimir
- Informe de contenido inapropiado
Hello.
I have the same problem as the post below.
https://software.intel.com/en-us/forums/computer-vision/topic/800112
I converted my own "UNet" model from .pb to .bin.
$ python3 mo_tf.py \ --input_model semanticsegmentation_frozen_person_32.pb \ --output_dir FP16 \ --input input \ --output output/BiasAdd \ --data_type FP16 \ --batch 1
And I measured inference time for each combination of devices.
OpenVINO with
"CPU" vs "Neural Compute Stick v1" vs "Neural Compute Stick v2"
Inference time is longer for MYRIAD than for CPU.
The reasoning time measurement results are organized below.
(1) Is not "Shave Core" used up to the maximum?
(2) Is there a way to speed up?
Please help me.
Enlace copiado
2 Respuestas
- Marcar como nuevo
- Favorito
- Suscribir
- Silenciar
- Suscribirse a un feed RSS
- Resaltar
- Imprimir
- Informe de contenido inapropiado
The following is additional discussion at the NCS official forum.
- Marcar como nuevo
- Favorito
- Suscribir
- Silenciar
- Suscribirse a un feed RSS
- Resaltar
- Imprimir
- Informe de contenido inapropiado
Thank you Katsuya for sharing!
Regards,
Joel

Responder
Opciones de temas
- Suscribirse a un feed RSS
- Marcar tema como nuevo
- Marcar tema como leído
- Flotar este Tema para el usuario actual
- Favorito
- Suscribir
- Página de impresión sencilla