针对《评人工智能如何走向新阶段》一文,继续发布国内外的跟贴留言487-502条如下:

487,优选脉冲神经网络(SNN)的不同训练方法以改善其特性(计算效率、准确性、推理延时)。

脉冲神经网络(SNN),通常被称为第三代神经网络,它使用稀疏脉冲事件在时间上对输入信息进行编码,可以利用它们来实现认知任务的更高计算效率。但考虑到最新的模拟神经网络(ANN)所带来的准确性的飞跃,SNN训练算法的成熟度要低得多,从而导致了SNN和ANN之间的准确性差距。论文提出了不同的SNN训练方法,其生物保真度不相同,并评估了它们在复杂图像识别数据集上的功效。首先,论文针对SNN中无监督的表示学习提出基于生物学上合理的峰值定时依赖可塑性(STDP)的确定性和随机算法。论文中对CIFAR—10数据集的分析表明,基于STDP的学习规则使卷积层可以使用更少的训练示例来自学习底层输入特征。但是基于STDP的学习在适用浅层SNN(≤4层)时会受到论文提出了一种转换方法,以将现成的经过训练的ANN映射到SNN,以实现节能推断。论文在ImageNet上展示了ⅤGG16-SNN的69.96%的准确性。但是,ANN到SNN的转换会导致较高的推理延迟,以实现最佳精度。为了使推理延迟最小化,论文提出了基于峰值的误差反向传播算法,该算法使用脉冲神经元的可微近似。论文在CIFAR-10上进行的初步实验表明,与转换后的SNN相比,基于脉冲的错误反向传播可以有效地捕获时间统计信息,从而将推理延迟降低多达8倍。

本论文发表在《IEEE》期刊上

https://ieeexplore.ieee.org/abstract/document/9053914

 

488,麻省理工开发基于人工智能的快速筛选方法用于开发新材料及应用于复杂材料分析。

美国麻省理工学院研究人员开发了一种快速筛选系统,以测试数十亿种潜在材料的抗断裂性。对于开发新材料或保护涂层的工程师而言,有数十亿种不同的可能性可供选择。在实验室中,如果使用计算机模拟确定材料的确切属性,验证过程可能要花费数小时、数天甚至更多的时间。现在麻省理工学院开发的一种基于人工智能的方法可以将测试时间减少到几毫秒,从而可以快速筛选候选材料。这项工作的重点是分析裂纹在材料分子结构中的传播方式来预测材料的破裂或断裂方式。记录了有序晶体结构的相对取向和材料各自对断裂的反应方式,然后逐个模拟材料如何破裂。最后将模拟的大量数据输入到AI系统中,训练可以发现潜在物理原理并预测不属于训练集的新材料性能的模型,对于分子动力学的单个模拟,运行模拟需要花费几个小时,但是在此人工智能预测中,只需花10毫秒即可完成所有模式预测,还能显示裂纹是如何一步一步形成的。研究人员认为,该开发方法具有通用性,AI模型可以应用于更为复杂的材料分析。

据《MIT-News》报导

 

489,用脉冲神经网络解决一类约束非Lipschitz的优化问题

本文针对一类约束非Lipschitz优化问题,提出了一个脉冲神经网络(SNN),其中目标函数是一个非光滑、非凸函数和一个非Lipschitz函数的和,其可行集为一个闭合凸集。使用平滑近似技术,通过微分方程,对提出的神经网络进行建模,可以轻松实现。在可行集中目标函数有界条件下,我们证明了可行集中任何初始点的SNN解的全局存在性和一致有界性。在平滑函数的Lipschitz属性下提供了SNN解决方案的唯一性。我们表明,SNN解的任何累积点都是优化问题的固定点。数值结果包括图像复原,盲源分离,变量选择和最小化条件数,以说明理论结果并显示SNN的效率。

 

490,研发基于深度强化学习新算法对交互式医疗图像分割动态过程建模、决策、求解

来自上海交大和华东师大的团队研发了一个基于深度强化学习的新算法Itek-MRL,将交互式医疗图像分割的动态过程建模成一个马尔科夫决策过程,然后用深度强化学习求解。该算法从整体上考虑分割更新序列,充分挖掘了交互分割前后的关联。由于体素级的图像分割标注任务造成单智能体的强化学习算法遭遇探索空间爆炸问题,因此该团队采用多智能体模型,将每个图像体素看作一个智能体。通过让所有智能体共享同一个行为策略,将探索空间减小到了可行的范围。多智能体模型还能同时实现图像体素的合作交互,从而有效地捕捉分割任务中体素之间的依赖性。

 

491,谷歌宣布召开第七届精细视觉分类研讨会

为了帮助支持细粒度的视觉分类这一领域的进一步发展,谷歌赞助并共同组织了第七届细粒度视觉分类研讨会(FGVC7),与计算机视觉和模式识别(CⅤPR)关联,该研讨会将作为虚拟聚会于2020年6月19日举行。谷歌强调了今年的世界级细粒度挑战赛内容,包括预测果树病到预测时尚特质。谷歌邀请了来自世界各地的计算机视觉研究人员参加此次研究会。

 

492,在计算机视觉领域应对尺度变化的目标检测新算法

目标检测是计算机视觉领域的重要研究方向。为了更好地解决物体检测中的尺度问题,近日商汤EIG算法中台团队提出应对尺度变化的目标检测新算法。

特征金字塔是解决物体尺度问题的重要手段,但是不同level的特征图其实存在较大的语义差距。论文提出轻量级金字塔卷积PConv,对特征金字塔进行3-D卷积来挖掘内在尺度的关联性。同时,论文提出尺度均衡的金字塔卷积SEPC,以减少特征金字塔与高斯金字塔间的差异。这一改进提高了检测器应对尺度变化的鲁棒性,提升了SOTASingle-Stage目标检测算法的性能,而且几乎不影响推理速度。

 

493,采用深层聚合算子(DLA)处理不同尺度目标解决多目标跟踪任务

华中科技大学和微软亚洲研究院的研究人员将目标检测和重识别融合进一个框架,帮助解决多目标跟踪任务,同时提出了一个简单而有效的新方法。该方法以30fps运行在公开数据集上的性能超越了之前SOTA结果。采用anchor-free目标检测方法,估计高分辨率特征图上的目标中心。去掉锚点这一操作可以缓解歧义问题,使用高分辨率特征图可以帮助Re-ID特征与目标中心更好地对齐。然后,添加并行分支来估计像素级Re-ID特征,这类特征用于预测目标的id。具体而言,学习既能减少计算时间又能提升特征匹配稳健性的低维Re-ID特征。在这一步中,研究者用深层聚合算子(DeepLayerAggregation,DLA)来武装主干网络ResNet-34,从而融合来自多个层的特征,处理不同尺度的目标。

 

494,深度学习在图上的发展——图神经网络(GNN)

不久前在ICLR2020大会上,Deepmind的研究人员PetarⅤolicrovic报告了用于算法推理的图表示学习。

由于图的不规则性,传统的深度学习算法在处理复杂的图时面临着巨大的挑战。图表示学习是深度学习的一个方向,是一种无监督学习,其核心是研究图数据的表示,图神经网络(GNN)给图表示学习带来了新的建模方法。

为什么要通过图表示学习——图神经网络(GNN)来发展深度学习算法用以处理图问题?因为很多数据是图结构(如社交网络、经济网络、生物医学网络、信息网络、互联网、神经网络等),GNN一一一也适用于这些网络。

十年来研究人员一直为克服GNN模型表现力不足致力于提升其表现力的研究,近来本文研究者开发了多任务基准,以确保GNN能同时理解多种特性,Petar表示,这是解决复杂图形问题的基础。

 

495,自动驾驶行为预测算法模型

当前,自动驾驶技术取得了很大进展,但欲在L5等级路况下行驶,乃至在全路况条件下行驶,还是未定之数!

今天,全球自动驾驶技术的两家领先的企业:Waymo和百度拟采取两种不同的发展思路。

1,Waymo在谷歌帮助下提出颠覆性的自动驾驶行为预测算法模型

他们提出一个全新的ⅤectorNet模型,该模型用向量来简化表达地图信息和移动物体(这是一种抽象化认识周围环境信息的做法),在所有向量间添加了语义关系,让自动驾驶车辆不仅能看到环境信息,更能进一步理解环境中不同要素间的关系,在自动驾驶语境下,对要素间的认识可帮助行为预测并大大提高预测精确度。

该论文已被计算机视觉领域三大国际顶会之一的CⅤPR接收。

2,百度尝试采取另一种思路,被称为“中国方案”。

该方案不再训练自动驾驶汽车在现有城市环境中进行导航,而是对现有城市或街道路侧进行数字化改造,以适应并促进自动驾驶技术的发展。

 

496,获物流试运行许可这个“空中飞的”厉害了!

据悉,亿航智能(一家智能自动驾驶飞行器科技企业)正式对外宣布,已获得中国民用航空局颁领发的全球首个自动驾驶飞行器(AAⅤ)亿航216的物流试运行许可,意味着亿航智能可率先开展150公斤以上大载重空中物流商业试运行,这个“空中飞的”厉害了!

 

497,百度刷新人脸伪造检测数据集识别“换脸”诡计

近日,百度在权威DeepFake防伪数据集FaceForensicsBenchmark(FFB)上刷新记录,以整体检测准确率0.821的成绩超越SOTA,领跑行业。

FFB是由德国慕尼黑工业大学(TUM)联合谷歌等共同发布的大规模人脸伪造数据集。FFB拥有四种先进的人脸伪造技术:Face2Face、FaceSwap、DeepFakes和NeuralTextures。这些伪造出来的人脸图像自然逼真,人眼几乎无法辨别真伪,极大地提高了任务难度。

百度将自研的LearningGeneralizedSpoofCue算法引入人脸合成图像鉴别任务,提高了整体检测准确率,并登顶FFB榜单。

随着DeepFake、FaceSwap等人脸编辑及生成技术的发展,极大的推动了如虚拟主播、人脸合成等新兴娱乐文化的应用,但同时也给人脸安全带来了潜在威胁,例如通过“换脸”技术进行色情视频生成、虚拟政治人物讲话等,对社会造成严重不良影响。目前AI换脸已形成一个黑产业链:上游提供软件技术,中游提供视频、照片定制,下游售卖成品视频(或做全产业链的生意),已造成严重危害。此外,在一些使用人脸注册识别场景下,可能存在不法分子通过上传AI合成人脸图像以企图蒙混过关。一系列“换脸”技术合成的人脸图像很难通过肉眼辨别真伪。

 

498,自然语言处理必须解决以下问题:

①言上歧义,②语言的鲁棒性,③知识依赖问题(语义取决于一些背景知识),④上下文。

 

499,ToP深度学习论文

在GitHub上有一个关于深度学习论文阅读路线图的存储库,包含100篇ToP深度学习论文,涉及自然语言处理、机器人、语义图像分割等多个领域。

 

500,神经拟态计算ⅤS深度学习

三位AI专家(杜克大学陈怡然、浙江大学唐华锦、英特尔宋继强)谈基于脉冲神经网络的神经拟态计算与深度学习的关系

宋:神经拟态计算和深度学习的关系是兼容幷蓄不是取代。对深度学习已有的擅长,如模拟人类视觉或自然语言交互的任务,让深度学习的网络去模拟。在其他方面,如英特尔的Loihi芯片做了嗅觉方面的工作,还有机器人操控,多模态甚至跨模态之间的知识存储,可用神经拟态计算去实现。

唐:在一些特殊场景中,如并不需要精确的计算结果,而需在一个实时环境中给出一个鲁棒响应时,神经拟态计算有绝对优势。

陈:目前两者实现的功能没有特别大的不同。神经拟态计算具有鲁棒性及实时性优势,这些只是在深度学习上提升而不是技术上突破。

宋:英特尔成立神经拟态研究社区(INRC),这是开源开放的,要在应用方面突破,抓应用落地。

神经拟态计算未来前景的切入点:

①一个是非结构化数据、实时性要求高的场景,②多模态、实时的场景(如机器人、无人机、需要持续学习自适应学习的场景)。

 

501,深度学习和推理

如何让深度学习模型鲁棒运行和推理?

为何说采用MegEngine“训练推理一体化”的范式后,可为深度学习引入推理创造条件?

如果深度学习实现推理后,能否改变其黑盒子操作的不可解释为可?

 

502,国内外跟贴:8个脑机接口案例

1,跟贴12条,2019年8月发布,美国卡内基梅隆大学脑机接口案例

2,跟贴51条,2019年发布,俄罗斯“脑机接口”公司(Neurbotics)和莫斯科物理技术学院(MIPT)脑机接口案例

3,52条跟贴,2019年7月发布,美国脸书和加州大学旧金山分校(UCSF)脑机接口案例

4,175条跟贴,2019年发布,美国特斯拉“脑机接口”公司脑机接口案例

5,308条跟贴,2020年1月发布,中国浙江大学求是高等研究院脑机接口案例

6,363条跟贴,2019年发布,美国加州大学伯克利分校脑机接口案例

7,378条跟贴,2019年发布,美国加州大学旧金山分校脑机接口案例

8,386条跟贴,2020年1月发布,中国天津大学脑科学与类脑研究中心脑机接口案例

2016年,对宇航员进行无创脑机接口测试

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章