课程咨询: 400-996-5531 / 投诉建议: 400-111-8989
认真做教育 专心促就业
随着互联网的不断发展,5G通信技术已经在一些地方进行了试点与实践,下面我们就一起来了解一下,关于通信延迟问题都有哪些好的解决方法。
神经晶片:人工智能来到物联网边缘
有两种不同的技术正在同时达到半成熟状态,它们可以解决一个长期存在的问题。这个问题就是延迟问题。
考虑一下这个例子,当你想用移动设备自动把文本或图像中的外文翻译成英语时,你的设备实际上是把这些信号发回到在云上运行的应用程序,翻译工作是在那里进行的,然后把译文发送回你的设备。
谷歌和其他提供即时翻译服务的公司已经从 RNN 转换到称为时间卷积网络的专用 CNN 结构,原因是 RNN 不能很好地适应 MPP,但 CNN 可以。这种转换减少了延迟,但是信号仍然需要完成整个往返。
解决该问题的两种技术中的一种是 5G 网络。你可能知道 5G 速度更快,但其真正的优点是其可以承载的流量密度。这真正打开了让你生活中的一切在互联网上传播的大门。这其中有多少是值得的还有待于观察。
还有种解决方案是引入更好的新型神经晶片(又称 spiking neural etworks,脉冲神经网络)。我们希望这些全新的神经网络架构可以成为实现人工通用智能(Artificial General Intelligence,简称 AGI)的途径。这还有很长的路要走。但是,主要的芯片制造商和一些初创企业正在发布脉冲神经晶片,专门针对芯片上 CNN 和 RNN 类模型进行了优化(没有信号往返)。其中一些还为了获得极低的能耗进行了优化。
不同的人工智能框架之间开始交互
现在,文本、语音、图像和视频模型正在成为主流,我们碰到了意想不到的障碍。在一个框架(Caffe2、PyTorch、Apache MXNet、微软 Cognitive Toolkit 和 TensorFlow)上构建的模型无法轻松地移植到不同的框架。我们可以翻译语音,但我们用的是名副其实的巴别塔。
幸运的是,这样的痛点推动了创新。AWS、脸书和微软合作构建了开放式神经网络交换(Open Neural Network Exchange,简称 ONNX),使模型可在不同的框架上互操作。
随着在开发人员、应用程序和设备之间共享的模型的数量变得越来越多,ONNX 正在成为未来一年的关键技术。
【免责声明】本文系本网编辑部分转载,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与管理员联系,我们会予以更改或删除相关文章,以保证您的权益!