物联未来网·资讯

www.huwulian.com

当前位置:首页 > 资讯 > 专家观点 > 专访黄铁军:大模型时代下,人工智能如何连接技术和产业?

专访黄铁军:大模型时代下,人工智能如何连接技术和产业?

2021.07.21 13:36:54  来源: 北京商报   作者: 管理员   字体:【
【导读】

  人工智能发展至今,已经成为全球新一轮科技革命和产业变革的核心驱动力。当前,利用大数据加大算力、加强算法形成超大规模智力模型,已成为新一代人工智能生态的核心,将是我国人工智能发展的重大应用基础设施,是实现我国2030人工智能总体领先战略的基础平台。

  以“大变局下的经济安全与可持续发展”为主题的博鳌亚洲论坛全球经济发展与安全论坛首届大会,将于10月18日-20日在湖南长沙举行,旨在探讨应对全球经济风险和结构性问题,将就智能制造、技术革命等议题共商共议。

  针对大模型时代下,人工智能发展方向及应用前景等话题,北京商报记者近日专访了北京大学信息科学技术学院教授、计算机科学技术系系主任黄铁军。

  北京商报:大模型被称为新一代人工智能生态的核心。能否简单介绍一下,什么是大模型?将解决哪些问题?

  黄铁军:大模型是把智力赋予各种应用的一个基础性共性模型。总的来说,是从海量大数据中学到蕴含在数据中的知识、规律,凝练到神经网络上变成大模型,为各种通用智能任务提供服务的基础性平台。

  比如移动互联网上,云服务厂商可以有很多服务能力,但是如果没有App这样一个载体,用户就很难得到各类云服务。这么来看,App本身就是一个产业生态。其实大模型目前也需要解决类似的问题。

  大模型是辐射性很强、技术性很强的公共性服务。各行各业将来都会有一些特定的需要,中间需要一些企业开发大模型的转化和定制的接口。

  北京商报:大模型将如何连接人工智能技术生态和产业生态?人工智能下一个信息领域的应用方向将会是什么?

  黄铁军:很多行业对人工智能的认识和应用还处在一个探索的阶段,这中间存在一定的距离。如何把这个接口接上,其实需要有一批企业,能把大模型的能力转化成各行各业所需要的内容。

  要预测下一个信息领域的应用是什么,难度很大。我觉得现实中,文案、信息处理等工作将要被人工智能所替代,或者大部分被人工智能的大模型所解决,这会带来一个极大应用的可能性。

  搜索引擎的各种应用,归根结底是信息组织挖掘使用。比如收集资料做一些信息处理,个人可以通过搜索引擎,而现在大模型解决了收集海量数据的问题,它的数据不是任何一个人或者群体人力所为的,而是把所有数据收集进来,并且反过来服务各种文案的信息处理应用。可能最后的出口还是人,但是背后大部分任务由人工智能完成。这个应用方向的可能性是巨大的。

  北京商报:人工智能技术是如何发展到大模型时代的?相比以往有哪些区别?

  黄铁军:人工智能发展到大模型,是人工智能技术发展的基本规律所决定的。人工智能有两派观点。一派认为,人工智能背后的科学机理、理论、数学、算法,这个东西很重要;另一派认为,人工智能总的来说是一门技术,构造一个智能系统,再理解智能系统的机理。后者是人工智能的主流观点。

  构建人工智能的过程中,一开始是少数科研人员的工作,后来有企业逐步参与进来,未来,则将由产学研、全社会力量共同构造一个模型。为什么要这么做?其实道理很简单,一个人工智能系统或者模型,如果学习的数据不够全、不够及时,很难相信它的智能模型能力很强。所谓大模型,就是把社会可能的各种数据资源,最强的算法以及算力整合在一起变成公共的,大家都能用的基础平台,这是我们构造人工智能系统必然要走的一个方向。

  在这个过程中,大模型的能力强了,反过来就会对社会方方面面发挥作用。发挥了作用,就有更多人建设它,它是良性迭代作用。

  实际上,人工智能的潜力决定于它能获得的数据,就像人“读万卷书行万里路”,人工智能也类似。物理世界乃至宇宙如此广阔,如果都能转化为数据、变成信息,让人工智能来学习,这个空间将会非常大。

  大模型的能力会否超出所有人,我不敢说,但至少任何一个人没有获取过这所有的信息,对于发现背后规律就更无从谈起。我们每个人的肉体和生命周期决定了我们能获取的数据还是相对有限的。

  北京商报:大模型发展过程还存在哪些挑战需要克服?未来的发展路径是怎么样的?

  黄铁军:训练大模型现在已经有一套技术和算法,但是是否有更好的算法,学界和业界还在不断的寻找和探索中。目前来说,需要很大的碳排放才能训练出一个智能模型,将来则可能需要更少的碳排放就能训练出一个模型。我认为有一天,人工智能训练的代价可能比人还要少,这就是另一个里程碑。

  所以说,随着人工智能接触的数据越来越多,随着学习、训练效率越来越高,它的结果就是一个大模型,未来则可能是超大模型、极大模型,并不断迭代下去,这条路径已经很清楚了。

  但它的上限到底在哪里,现在还没有任何依据。目前来说,越大越好是对的。可能扩大到一定地步之后就不会是简单的线性提升了,也有可能到一定程度之后,增长就开始变缓了,但是这些目前还都是猜测。

  北京商报:在大模型的研发过程中,如何考虑一些安全和伦理问题?将如何去避免?

  黄铁军:人工智能的安全和伦理问题不是一蹴而就的。比如信息安全问题是随着信息的发展不断出现的,出现之后我们就要去解决。

  在大模型的发展过程中,也存在一些本身就存在的风险,比如模型学习的知识有哪些是不符合伦理和原则的,这些风险可以预先控制;但也存在一些风险,是技术不断进步所带来的,那它的解决方式也需要通过技术手段来不断地解决,“解铃还须系铃人”。如果因为存在潜在的一些问题就不发展这个技术了,是不符合科技发展规律的。

  北京商报记者 陶凤 王晨婷


热门推荐