<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>topic Re: Error compiling network in Intel® Distribution of OpenVINO™ Toolkit</title>
    <link>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708267#M5986</link>
    <description>&lt;P&gt;@tsahim I believe that we may not yet support the Absolute Value layer. Can you post the error that you are receiving? &lt;/P&gt;</description>
    <pubDate>Fri, 22 Dec 2017 06:45:16 GMT</pubDate>
    <dc:creator>idata</dc:creator>
    <dc:date>2017-12-22T06:45:16Z</dc:date>
    <item>
      <title>Error compiling network</title>
      <link>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708264#M5983</link>
      <description>&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;I'm trying to convert a Caffe network with AbsVal layer but getting an error.&lt;P&gt;&amp;nbsp;&lt;/P&gt;Network git at: &lt;A href="https://github.com/guozhongluo/head-pose-estimation-and-face-landmark"&gt;https://github.com/guozhongluo/head-pose-estimation-and-face-landmark&lt;/A&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;Can someone please advice ?&lt;P&gt;&amp;nbsp;&lt;/P&gt;Thanks,&lt;P&gt;&amp;nbsp;&lt;/P&gt;Tsahi.</description>
      <pubDate>Wed, 13 Dec 2017 15:59:46 GMT</pubDate>
      <guid>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708264#M5983</guid>
      <dc:creator>idata</dc:creator>
      <dc:date>2017-12-13T15:59:46Z</dc:date>
    </item>
    <item>
      <title>Re: Error compiling network</title>
      <link>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708265#M5984</link>
      <description>&lt;P&gt;@tsahim I can't see AbsVal layer in this project as well as weight (.caffemodel file). Please explain how do you manage to convert this network for NCS so we can triage the problem. &lt;/P&gt;</description>
      <pubDate>Fri, 15 Dec 2017 18:19:12 GMT</pubDate>
      <guid>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708265#M5984</guid>
      <dc:creator>idata</dc:creator>
      <dc:date>2017-12-15T18:19:12Z</dc:date>
    </item>
    <item>
      <title>Re: Error compiling network</title>
      <link>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708266#M5985</link>
      <description>&lt;P&gt;Wrong link sorry,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;this is the library at: &lt;A href="https://github.com/jiangwqcooler/face-landmark"&gt;https://github.com/jiangwqcooler/face-landmark&lt;/A&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;and this is the orig proto.txt (before shape mod ):&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;name: "landmark"&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;input: "data"&lt;P&gt;&amp;nbsp;&lt;/P&gt;input_dim: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;input_dim: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;input_dim: 60&lt;P&gt;&amp;nbsp;&lt;/P&gt;input_dim: 60&lt;P&gt;&amp;nbsp;&lt;/P&gt;#&lt;P&gt;&amp;nbsp;&lt;/P&gt;the actual net&lt;P&gt;&amp;nbsp;&lt;/P&gt;layer 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Conv1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Convolution"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "data"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Conv1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    convolution_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        num_output: 20&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pad: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 5&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        weight_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "xavier"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            std: 0.1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;        bias_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "constant"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            value: 0.2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationTangH1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "Conv1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "ActivationTangH1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "TanH"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationAbs1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "ActivationTangH1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "Abs1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "AbsVal"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Pool1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Pooling"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Abs1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Pool1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    pooling_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pool: MAX&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Conv2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Convolution"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Pool1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Conv2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    convolution_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        num_output: 48&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pad: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 5&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        weight_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        type: "xavier"&lt;P&gt;&amp;nbsp;&lt;/P&gt;        std: 0.1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bias_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        type: "constant"&lt;P&gt;&amp;nbsp;&lt;/P&gt;        value: 0.2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationTangH2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "Conv2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "ActivationTangH2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "TanH"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationAbs2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "ActivationTangH2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "Abs2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "AbsVal"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Pool2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Pooling"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Abs2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Pool2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    pooling_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pool: MAX&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;layer 3&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Conv3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Convolution"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Pool2"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Conv3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    convolution_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        num_output: 64&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pad: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 3&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        weight_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "xavier"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            std: 0.1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;        bias_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "constant"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            value: 0.2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationTangH3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "Conv3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "ActivationTangH3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "TanH"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationAbs3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "ActivationTangH3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "Abs3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "AbsVal"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Pool3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Pooling"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Abs3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Pool3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    pooling_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pool: MAX&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 3&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;layer 4&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Conv4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "Convolution"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Pool3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Conv4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    convolution_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        num_output: 80&lt;P&gt;&amp;nbsp;&lt;/P&gt;        pad: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;        kernel_size: 3&lt;P&gt;&amp;nbsp;&lt;/P&gt;        stride: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        weight_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "xavier"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            std: 0.1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;        bias_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "constant"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            value: 0.2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationTangH4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "Conv4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "ActivationTangH4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "TanH"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationAbs4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "ActivationTangH4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "Abs4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "AbsVal"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;#&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Dense1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "InnerProduct"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Abs4"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Dense1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    inner_product_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        num_output: 512&lt;P&gt;&amp;nbsp;&lt;/P&gt;        weight_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "xavier"&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;        bias_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "constant"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            value: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationTangH5"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "Dense1"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "ActivationTangH5"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "TanH"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;  name: "ActivationAbs5"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  bottom: "ActivationTangH5"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  top: "Abs5"&lt;P&gt;&amp;nbsp;&lt;/P&gt;  type: "AbsVal"&lt;P&gt;&amp;nbsp;&lt;/P&gt;}&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;layer {&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;    name: "Dense3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    type: "InnerProduct"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    bottom: "Abs5"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    top: "Dense3"&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 1&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        lr_mult: 2&lt;P&gt;&amp;nbsp;&lt;/P&gt;        decay_mult: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    inner_product_param {&lt;P&gt;&amp;nbsp;&lt;/P&gt;        num_output: 136&lt;P&gt;&amp;nbsp;&lt;/P&gt;        weight_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "xavier"&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;        bias_filler {&lt;P&gt;&amp;nbsp;&lt;/P&gt;            type: "constant"&lt;P&gt;&amp;nbsp;&lt;/P&gt;            value: 0&lt;P&gt;&amp;nbsp;&lt;/P&gt;        }&lt;P&gt;&amp;nbsp;&lt;/P&gt;    }&lt;P&gt;&amp;nbsp;&lt;/P&gt;}</description>
      <pubDate>Wed, 20 Dec 2017 23:47:46 GMT</pubDate>
      <guid>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708266#M5985</guid>
      <dc:creator>idata</dc:creator>
      <dc:date>2017-12-20T23:47:46Z</dc:date>
    </item>
    <item>
      <title>Re: Error compiling network</title>
      <link>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708267#M5986</link>
      <description>&lt;P&gt;@tsahim I believe that we may not yet support the Absolute Value layer. Can you post the error that you are receiving? &lt;/P&gt;</description>
      <pubDate>Fri, 22 Dec 2017 06:45:16 GMT</pubDate>
      <guid>https://community.intel.com/t5/Intel-Distribution-of-OpenVINO/Error-compiling-network/m-p/708267#M5986</guid>
      <dc:creator>idata</dc:creator>
      <dc:date>2017-12-22T06:45:16Z</dc:date>
    </item>
  </channel>
</rss>

