科技动态

新光学芯片可实现高效“深度学习”

发布:guangxuedaren阅读:2104时间:2017-6-14 09:19:38

美国麻省理工学院(MIT)科学家在12日出版的《自然·光学》杂志上发表论文称,他们开发出一种全新的光学神经网络系统,能执行高度复杂的运算,从而大大提高“深度学习”系统的运算速度和效率。

a,一般人造神经网络架构由输入层,多个隐层和输出层组成。 b,将一般神经网络分解为单个层。 c,构成人造神经网络每一层的光学干涉和非线性单位。 d,提出了一个全光学,完全集成的神经网络。

“深度学习”系统通过人工神经网络模拟人脑的学习能力,现已成为计算机领域的研究热门。但由于在模拟神经网络任务中,需要执行大量重复性“矩阵乘法”类高度复杂的运算,对于依靠电力运行的传统CPU(中央处理器)或GPU(图形处理器)芯片来说,这类运算太过密集,完成起来非常“吃力”。

a,两层ONN实验的示意图。b,实验中使用的实验反馈和控制回路。 c,实验证明OIU的光学显微照片说明,其完全光学实现了矩阵乘法(以红色突出显示)和衰减(以蓝色突出显示)。 d,MZI中单个移相器的示意图和用于调谐内部移相器的传输曲线。

通过几年努力,MIT教授马林·索尔贾希克和同事开发出光学神经网络系统的重要部件——全新可编程纳米光学处理器,这些光学处理器能在几乎零能耗的情况下执行人工智能中的复杂运算。索尔贾希克解释道,普通眼镜片就能通过光波执行“傅里叶变换”这样的复杂运算,可编程纳米光学处理器采用了同样的原理,其包含多个激光束组成的波导矩阵,这些光波能相互作用,形成干涉模式,从而执行特定的目标运算。

a,b,分别用于ONN和64位电子计算机的相关矩阵,用于实现用于元音识别的两层神经网络。 c,具有相位编码(σΦ)和光检测误差(σD)的元音识别问题的正确识别率(百分比)。d,测试数据集的二维投影(x轴上的对数面积比系数1和y轴上的2),其显示了元音C和D之间的重叠。

研究小组通过测试证明,与CPU等电子芯片相比,这种光学芯片执行人工智能算法速度更快,且消耗能量不到传统芯片能耗的千分之一。他们还用可编程纳米光学处理器构建了一个神经网络初级系统,该系统能识别出4个元音字母的发音,准确率达到77%。他们的最终目标是,将可编程纳米光学处理器交叉铺成多层结构,构建光学网络神经系统,模拟人脑中神经元执行复杂的“深度学习”运算。

索尔贾希克表示,新光学处理器还能用于数据传输中的信号处理,更快速实现光学信号与数字信号间的转换。未来,在大数据中心、安全系统、自动驾驶或无人机等所有低能耗应用中,基于新光学处理器的复杂光学神经网络将占据重要席位。

来源:中国科技网

> 免责声明
网站内容来源于互联网、原创,由网络编辑负责审查,目的在于传递信息,提供专业服务,不代表本网站及新媒体平台赞同其观点和对其真实性负责。如对文、图等版权问题存在异议的,请于20个工作日内与我们取得联系,我们将协调给予处理(按照法规支付稿费或删除),联系方式:021-69918579。网站及新媒体平台将加强监控与审核,一旦发现违反规定的内容,按国家法规处理,处理时间不超过24小时。 最终解释权归《中国激光》杂志社所有。

关于本站 Cookie 的使用提示

中国光学期刊网使用基于 cookie 的技术来更好地为您提供各项服务,点击此处了解我们的隐私策略。 如您需继续使用本网站,请您授权我们使用本地 cookie 来保存部分信息。
全站搜索
您最值得信赖的光电行业旗舰网络服务平台!