自我监督学习:学习技术的未来发展

尽管深度学习已经在智能领域做出重大贡献,但这项技术本身仍存在一项致命缺陷…

        但目前人们对于深度学习以及监督学习的抱怨并非空穴来风。当下,大部分能够实际应用的深度学习算法都基于监督学习模型,这也充分暴露出现有AI系统的缺点所在。我们日常使用的图像分类器、人脸识别系统、语音识别系统以及众多其他AI应用都需要利用数百万个带有标记的示例进行充分训练。到目前为止,强化学习与无监督学习只能算是在理论上存在的其他机器学习算法类型,还极少在实践场景中得到应用。


        监督深度学习为我们带来多种非常实用的应用方案,特别是在计算机视觉与自然语言处理等特定领域。深度学习已经在癌症检测等敏感应用中扮演越来越重要的角色,而且事实证明,其确实能够在部分人类无法解决的问题中发挥核心作用。例如,社交媒体巨头们正纷纷利用这类技术审核并通报用户在平台上发布的大量内容。


        但正如前文所述,监督学习只适用于具备充足高质量数据、且数据内容足以涵盖所有可能情况的场景。一旦经过训练的深度学习模型遇到不同于训练示例的全新状况,它们的表现将彻底失去控制。在某些情况下,单是从稍有区别的角度展示对象,就有可能令神经网络将其误判为其他物体。


        但是,这些AI程序在摸索解决问题的方法方面,与人类完全不同。基本上,强化学习代理就是一张白纸,我们只为其提供在特定环境中能够执行的一组基本操作。接下来,AI会不断自行尝试,通过反复试验来学习如何获取最高奖励(例如尽可能在游戏中取胜)。


        当问题空间比较简单,而且我们拥有充足的计算能力以运行更多不断重复的试验性会话时,这类模型就能正常起效。在大多数情况下,强化学习代理要耗费大量时间以掌握游戏精髓,而巨大的成本也意味着这类技术只能存在于高科技企业内部或者由其资助的研究实验室当中。


        对于每个视频片段,都存在着无数种可能的后续情况。这就导致AI系统很难预测出特定结果,例如视频内接下来几帧所展示的画面。神经网络只能计算出可能结果的平均值,并据此输出非常模糊的影像。


        自我监督学习的主要优势之一,在于AI能够输出巨大的信息量。在强化学习中,AI系统训练只能由标量级别来决定;模型本身会收到一个数值,用于表示对相关行为的奖励或惩罚。在监督学习中,AI系统会为每条输入预测出对应的类别或数值。


        必须承认,不确定性问题的处理方式仍然有待探索;但如果解决方案真正出现,AI技术将迎来通往光明未来的通天大道。

科技公司

2021-11-22T18:10:39.039

价格:0.00

优惠价格:0.00

前一篇: