当前位置:首页 >全球资讯 > 列表

AI火爆背后的三大焦虑与思考

作者:王玮   来源:《财富时代》2023年4月刊 2023-04-22 20:50:34

图/摄图网

一夜之间,ChatGPT、微软bing、谷歌bard、文心一言等,各种智能AI的产品冲击着我们的生活,也不可避免地带来相关焦虑,究竟会带来怎样的便利,为此付出的代价是什么?是的,一切受益都是需要付出代价,只不过看上去不需要代价的是因为相关因素没有显现,而非不存在。由此产生的焦虑也是必然,无论是生产商、资本,还是普通人,都有自己的焦虑,也都有各自的思考,值得我们梳理和深度研究。

资本的焦虑:AI是科研、资本、时间的积累

各家公司纷纷拿出大语言模型的应用产品,OpenAI发布了GPT-4,百度推出了文心一言,微软Office的AI助手Microsoft 365 Copilot将应用进一步与场景结合,Midjourney发布V5版本,谷歌也上线了Bard聊天机器人接受测试。AI在一夜之间就爆火了,而且各路资本的快速涌入,几乎将赛道都占满了,甚至已经泡沫化了。

ChatGPT几乎是霸屏了近期的热点话题,其不足两个月用户突破1个亿,随后更是快速增长,这成为历史上增长速度最快的消费应用程序。ChatGPT只是众多已面世的AI系统中的一个典型代表,是一个大型的语言模型和一个能基本通过图灵实验的智能对话机器人。ChatGPT背后的核心是生成式AI技术,具体包含有自注意力机制、预训练语言模型、双向预测架构、卷积神经网络(CNN)和循环神经网络(RNN)等,使之可以生成高质量的文本,并对文本进行翻译、摘要、问答等多种任务。

但问题是ChatGPT的核心架构和理论都是国外原创的,这个技术的代差不是单纯的资本可以接近的,实际上,ChatGPT是AI 2.0时代的雏形,还是有很多的待改善的因素。即便如此,国内相关产品和ChatGPT的差距还是巨大的。GPT全名叫做Generative Pre-trained Transformer,用生成式方法预训练的Transformer;ChatGPT的基础便是OpenAI提出的GPT,和BERT差不多,也就是预训练,只是预训练的方式不一样。仅GPT-3有1750亿参数,45TB的训练数据(1TB=1000GB),训练所使用的设备包括285000个CPU和10000个GPU;GPT-4则更进一步升级。

这个模型的护城河有两点:(1)训练数据的收集,(2)训练和维护所产生的费用。因此,ChatGPT模型的护城河在于训练数据收集和烧钱的计算过程,除非在人工智能有深度积累,既有数据的积累,也有研究上的积累,否则很难有复制的机会。资本都是逐利的,追求快准狠的机会,而科研却需要持续的积累,且短期看不到利润的,所以很多国内资本如今非常焦虑,是有道理的。

由于ChatGPT还没上市,但微软是ChatGPT的大股东,之前已经陆续向ChatGPT投资了几十亿美金,最近打算再追加100亿美金。之后微软的持股预计会提升到49%,所以微软算是直接受益方。而计划接下来发布和Chatgpt同样功能,目前为AI人工智能的龙头谷歌;还有亚马逊、微软、谷歌占据了全球云计算近70%份额。因此,这个是一个对资金、科研、时间等诸多消耗的因素。

人的焦虑:未来的出路在哪里

AI火爆的另一面,不少人都在焦虑我们的工作会不会被ChatGPT取代?每次谈论智能AI时,许多人会先想到它带来的便利和未来发展的潜力,但不可否认的是随后也会担心,AI对工作的改变,能加速改变商业模式,以及相关岗位的因素。随着机器人和自动化技术的发展,许多重复性的工作,都面临被AI取代的风险。AI可以自动完成一些烦琐、重复和机械的工作,例如数据分析、文件整理、图像识别等。这可以节省人们的时间和精力,提高工作效率。

AI可以处理海量的数据和信息,从中找到模式和规律,帮助人们解决复杂的问题,例如医疗诊断、气象预测等。也会根据这样的大数据,分析个人的兴趣和需求,为他们提供个性化的服务和推荐。但AI不是万能的。虽然AI在某些领域表现出色,但它也有局限性和不足之处。如AI可以创造剧本,可以写诗,可以写文章,而我们可以发现,AI是没有情感的,是没有生活经验的,这样的文字可以很华丽,很有逻辑,却没有生活味儿。因此,越是有情感的文字,越是实在的文章,反而越能打动人。这就是为何,AI虚拟人并没有取代主持人,解说员等职业的原因,人们也不喜欢看“不真”的东西。

  所以,对于程序员也是如此,实现某个功能很容易,AI也能实现,但如何满足人们的需求,找到这样的因素才是关键。那么,越是与人交流,才越能让自己拥有更多的机会。财商知识,是让人变得更加开朗,多与人交流,朋友多了,圈子大了,创造价值的机会就多了,实现财富的可能性也就大了。因此,对学生来说,先学会与人交往,尤其是真诚的表达,无论是写文章,还是交流,都是如此,这样未来的机会才会多,而不是单纯地学知识就行的。

工作也是如此,无论你做什么工作的,要多叠加技能,比如说数据分析员,你要是单纯研究表面的数据,那你永远跑不过AI的,但如果多去调研和实践,明白背后的原因,尤其是考虑到人的情绪因素,这就是AI很难理解的,却是市场中永远存在的,这样你的职位不仅很牢固,而且很有价值。同样道理,很多因素,从理论是可以的,但为何实际不行了?说白了,就是有人的因素存在,人也是最复杂的,多研究人,多从人的需求思考,不仅商机多,而且还能提升自己。

我们需要思考的是如何做一些有创造性的工作。这里面有一个很典型案例,那就是在2017年10月18日的时候,就成立了一个“阿尔法狗”人工智能管理的基金:AI Powered Equity ETF(AIEQ)。AI成立以来,战胜了标普500指数吗?答案出乎大家意料,AIEQ在五年多的时间中,仅上涨了29%,同期标普500上涨了60%。这意味着,AI投资还替代不了投资者,这意味什么?说白了,其对于人的情绪化因素还很难,毕竟一个市场如果是非常理性的,那就太简单了,算法就能实现了,问题就在于,市场是用满了各种误读,可以解读,以及认知错误的,因此,要想不被替代,就多想一些,给人提供服务的因素。

还有,AI的发展需要数据、算法和技术的支持,但同时也需要人类的智慧和判断力。在某些情况下,AI甚至可能会出现错误或失误。那么,我们需要在使用AI的过程中保持警惕和谨慎,避免过度依赖AI,以免发生意外和失误。所以,可以肯定的是,一些需要创意性和抽象性思维以及高度社交智慧和谈判技巧等方面的工作短时间内不会被AI取代。实际上,用人公司也在焦虑,他们在测算,利用AI降低人工成本,你没用AI,别的公司用了,那么就会被淘汰,因此,都在进行着估算。

AI的风险与使用思考

AI的广泛应用,也让AI创建者们都有了焦虑。如比尔盖茨谈人工智能的风险和问题,还是给我们很多启示的。“AI并不一定擅长理解人类请求的上下文,这导致了一些奇怪的结果。当您请求AI编写一些虚构的东西时,它可以很好地完成。但是当您请求有关旅行建议时,它可能会推荐不存在的酒店。这是因为AI不够了解你的语境,无法确定它是否应该生成虚假酒店,还是只告诉你有空房间的真实酒店。此外,在处理抽象推理时AI经常会出错,给出错误的答案。”“但这些技术的问题总会解决,而AI所构成的威胁,与大多数发明一样,人工智能可以用于善意或恶意。政府需要与私营部门合作,寻找限制风险的方法。”

这其实提出来一个准入的因素。AI还面临着安全和隐私问题。随着AI应用的不断扩大,越来越多的个人和企业的数据被收集和分析,这可能会导致个人隐私泄露和数据安全问题。在这种情况下,需要严格的监管和法律保护来保障人类的利益。AI需要处理海量的个人数据,例如,我们在社交媒体上的行为、位置数据、健康记录等,这些数据的泄露或滥用可能会带来严重的后果。AI应该遵守人类的道德和法律标准,以保护人类的权利和利益。政府和企业应该制定相关的道德和法律标准,确保AI的合法性和合理性。

由于科研在前,且总是超前的,而相关监管面临着空白,而这方面会有很大的不确定性,哪些领域可以使用AI,使用的范围有多大,还有后续出现问题后的权责因素,这些如今都是未知,却是AI使用时必须要思考的。只有确定了不可碰触的因素,才会有充分可使用发挥的空间,因此法律和道德因素,恰恰是让其拥有自由使用的关键。

而在未来很长一段时间内,AI的使用是不可避免,学会如何相处是关键,各方的焦虑都是有其实际意义的,也都需要解决,而 “人机协同工作模式”,即人类工作者和人工智能程序共同完成日趋复杂的工作,最终呈现出“人机协同共生”的局面,或许是相对合理的解决方案。每个人都要做好迎接AI时代的诸多改变,这是值得我们思考的因素。

作者:王玮,投资达人,微博知名财经博主,财经撰稿人,著有《日历买股法》《解套第一课》。

标签