📜  TensorFlow Mobile

📅  最后修改于: 2021-01-11 11:09:48             🧑  作者: Mango

TensorFlow移动

TensorFlow Mobile主要用于Android和iOS等任何移动平台。它适用于拥有成功的TensorFlow模型并希望将其模型集成到移动环境中的开发人员。它也用于那些无法使用TensorFlow Lite的人。将桌面环境模型集成到移动环境中,任何人都可以发现的主要挑战是:

  • 了解如何使用TensorFlow移动版。
  • 他们正在为移动平台构建模型。
  • 他们正在将TensorFlow库添加到其移动应用程序中。
  • 准备模型文件。
  • 优化二进制文件大小,文件大小,RAM使用率

使用移动机器学习的案例

与TensorFlow相关的开发人员在高性能GPU上使用它。但是,通过网络连接发送所有设备数据是非常耗时且昂贵的方式。在任何移动设备上运行它都是一种简单的方法。

1) TensorFlow中的图像识别:这是一种有用的方法来检测或感知移动设备捕获的图像。如果用户正在拍照以了解其中的内容,则可以使用一种方法来应用适当的滤镜或标记它们以在必要时找到它们。

2) TensorFlow语音识别:各种应用程序都可以使用语音驱动界面来构建。很多时候,用户无法给出指令,因此将其连续流式传输到服务器会产生很多问题。

3) TensorFlow中的手势识别:用于通过分析传感器数据来借助手或其他手势控制应用程序。我们在TensorFlow的帮助下进行此操作。

光学字符识别(OCR),翻译,文本分类,语音识别等示例

TensorFlow Lite:

TensorFlow Lite是专为移动平台和嵌入式设备设计的轻量级版本。它为低延迟和小二进制大小的移动设备提供了机器学习解决方案。

TensorFlow支持针对移动平台进行了调整的一组核心运算符。它还支持模型中的自定义操作。

TensorFlow Lite教程介绍了一种基于Flat Buffers的新文件格式,Flat Buffers是一个开源平台序列化库。它由任何新的移动解释器组成,用于使应用程序更小,更快。它使用自定义内存分配器以最小化负载和执行延迟。

Tensorflow Lite的体系结构

可以使用TensorFlow Lite转换器将磁盘上训练有素的TensorFlow模型转换为TensorFlow Lite文件格式。然后,我们在移动应用程序中使用该转换后的文件。

对于部署精简模型文件:

  • Java API :它是Android上C++ API的包装。
  • C++ API :它可以加载lite模型并调用解释器。
  • 解释器:执行模型。它使用选择性内核加载,这是TensorFlow中Lite的独特功能。

我们还可以使用C++ API实现自定义内核。

以下是有关TensorFlow Lite的要点

它支持一系列针对移动平台进行了调整的运算符。 TensorFlow还支持模型中的自定义操作。

  • 它是基于平面缓冲区的新文件格式。
  • 它是使用选择性加载技术的设备上解释器。
  • 链接所有受支持的运算符,TensorFlow Lite小于300kb。
  • 它支持Java和C++ API。

TensorFlow Lite与TensorFlow移动

当我们看到TensorFlow Lite和TensorFlow Mobile是什么,以及它们在移动环境和嵌入式系统中如何支持TensorFlow时,我们知道它们之间的区别。 TensorFlow Mobile和TensorFlow Lite之间的区别如下:

  • 这是TensorFlow移动版的下一个版本。主要而言,在TensorFlow lite上开发的应用程序将比TensorFlow移动版具有更好的性能和更少的二进制文件。
  • 它仍处于早期阶段,因此并非所有案例都涵盖在内,而TensorFlow mobile并非如此。
  • TensorFlow Lite支持特定的运算符集。因此,默认情况下,并非所有模型都可在TensorFlow Lite上运行。