课程咨询: 400-996-5531 / 投诉建议: 400-111-8989
认真做教育 专心促就业
随着互联网的不断发展,对人工智能技术的发展也有了不同程度的突破。今天我们就一起来了解一下,在人工智能领域都有哪些受到关注的话题。
算法能负起责任吗?
人们说人工智能是个“黑盒子”,目前还无法看到AI是如何做出决策的。由于系统是黑盒操作,只要算法经过了评审,并且满足了关键利益相关者的一些标准,就会获得一些固有的信任。大量证据表明,生产环境中的算法存在缺陷,并产生了意想不到的有害结果,因此上述的观点很快就出现了争议。很多简单的系统都是黑盒操作,越过了任何有意义的评审,因为公司会有意识地进行保密、缺乏足够的培训、不知道如何批判性地检查输入和输出,致命的是不知道为什么会出现这些结果。
AI的主要障碍:心态、文化和遗留问题
目前,在很多组织中,AI实现面临的大障碍是转化遗留系统。心态和文化是这些遗留系统的要素,它们为已建立的流程、价值和业务规则提供了系统性视图,这些规则不仅决定了组织的运作方式,也解释了为什么这些根深蒂固的要素会成为企业的重大障碍,尤其是在当前运转良好的情况下。因此,他们目前没有真正需要解散遗留基础设施的动机。
人工智能是业务转型的一个组成部分,虽然这个话题已经获得了与人工智能炒作一样多的关注,但对于做出重大改变所需的投资和承诺,企业却表现得犹豫不觉。据我们所知,有些公司愿意在特定的应用场景上进行试验,但并没有准备好进行培训、重新设计流程以及改进治理和公司政策。对于被迫进行这些重大投资的大型组织来说,问题不应该是投资回报,而是可持续的竞争优势。
数据完整性问题
如今的人工智能需要大量的数据才能产生有意义的结果,但却无法利用从其他应用程序获得的经验。Karen认为,现在已经有一些工作在克服这些限制,但在可以大规模应用这些模型之前,需要进行知识转移。不过,在某些场景中,人工智能已经可以得到有效的应用,比如挖掘图像、声音、视频中的洞见以及进行语言翻译。
人工智能与伦理的必然耦合
人工智能的主要动因是确保社会效益,包括简化流程、增加便利性、改进产品和服务,以及自动化检测潜在危害。向后者妥协意味着已经准备好用制造工艺、服务、评估解决方案、生产和产品质量的更新结果来衡量投入和产出。
有关人工智能的讨论和报道还在继续,“人工智能”和“伦理”这两个词语的结合揭示了这个日益严重的问题,即人工智能技术所带来的社会危害将考验着人类的良知和价值观。
节选:infoq
【免责声明】:本内容转载于网络,转载目的在于传递信息。文章内容为作者个人意见,本平台对文中陈述、观点保持中立,不对所包含内容的准确性、可靠性与完整性提供形式地保证。请读者仅作参考。