互联网正在被重塑,改变这一切的是 ai。数十年来,上网意味着搜索和查看,它已经成为了我们获取信息的习惯,以至于我们中很少有人再质疑这种方式是否合理了。
但 ai 正在以超乎人们想象的速度改变这一切。新一代 ai 驱动的搜索引擎使获取信息变得更加容易,它只提供答案,而不再需要我们去寻找答案。与此同时,网络上开始充斥着大量ai 生成质量可疑的内容,它污染了搜索结果,并使搜索变得不再那么可靠。ai 正在颠覆过去三十年来科技巨头、内容生产者和广告主之间的微妙平衡。陈规已经被打破,然而新的还在路上。
本文内容来源于《云上的中国 3:剧变中的ai时代》,希望对您有所启发。
01
近20年来,全球搜索引擎的市场格局一直相对稳健,很少出现突破性的创新,大模型的出现带来了一个革命性的机会。
传统的搜索方式是输入一个关键词或问题后,搜索引擎提供一些最相关的结果。要获得有用的信息,用户必须自己进行筛选并一个个地打开链接,再花时间进行阅读和总结。从输入一个关键词到得出结论,整个搜索过程用时,可能要花至少几分钟的时间,用户才能得到想要的结果。
这个效率显然不算高,用户还要排除竞价排名广告等其他因素带来的干扰。特别是随着移动互联网时代推荐算法的兴起,越来越多的 c 端用户使用搜索的频率下降了,这一趋势在中国市场尤为明显,人们已经开始把小红书、微信、微博等一系列社交媒体平台当作新的搜索引擎。
如何让人们重新回到搜索引擎?成了谷歌、百度们近些年来的困扰。
可以肯定的是,谷歌仍然是搜索领域的主导力量,它仍然占据着全球搜索引擎市场90%的份额(百度占据了中国市场约 60% 的份额)。但越来越多的用户,尤其是z世代的用户,已经变得更喜欢在谷歌以外的地方获取信息,根据相关机构的调研数据显示,这个数字已经达到了 40%。
造成如今这个局面的原因有很多:随着搜索引擎们的广告业务的不断增长,有用的搜索结果在页面上的位置越来越靠后,而广告的位置则越来越靠前。此外,受到搜索引擎优化(seo)的困扰,许多垃圾信息挤掉了相关的搜索结果,只为了在搜索引擎中能够排名靠前。
此前,谷歌已经开始将来自 tiktok 等社交媒体平台的更多内容直接整合到搜索结果中。在百度,人们也可以搜到来自小红书的内容。随着google bard(后更名为 gemini)和文心一言的发布,如今在搜索某些内容时,用户可能会收到一个由人工智能编写的清晰、自然的语言答案。
但问题随之而来。自那以后,谷歌的人工智能产生了一系列不实和错误信息——比如建议在披萨饼食谱中加入胶水,或是食用石头来补充营养。尽管大家都清楚人工智能不可避免地会出错,但当这些错误与人们长期信赖的搜索引擎相结合展示时,其带来的影响要远超过与聊天机器人对话时发现它在“不知所云” 所带来的负面感受。许多专家担心,世界上最重要的知识引擎突然充斥着不可靠甚至危险的谎言会带来难以逆转的危机。
乐观主义者表示,人工智能提供的答案虽然不完美,但人们可以比以往任何时候都更高效地访问他们需要的信息。他们认为,错误信息只是一个短期问题,随着时间的推移,它将变得越来越准确。
为了解决这一问题,许多 ai搜索开始在回答中加入信源索引,以此保证答案可追溯、可考证、可信赖。信源的引入部分解决了大模型的幻觉问题与可解释性薄弱的问题,提升了人们使用 ai的信心。此外,如此“学院派”的功能也特别适合那些把搜索引擎当生产力工具的用户。
昆仑万维董事长兼 ceo 方汉认为,中国的移动互联网时代群雄割据,大量娱乐向的轻度内 容存放在各个巨头的平台上,但一些严肃内容的公开程度反而更高。昆仑万维天工 ai 搜索的目标群体,就是那些将搜索当作生产力工具的群体,包括传媒、科研和投研等领域的人士。传统的搜索巨头赖以生存的基于广告的商业模式难以支持 ai 搜索的颠覆式创新,而大模型搜索在提升人们生产力上的创新,有望带来新的收费模式。
事实上,互联网现在面临的难题可能与 ai 搜索的准确性无关。令人担心的是,如果人们只看搜索引擎为其总结的内容,那些依靠流量来支持其业务的网站的收入将会锐减,最终将专业的内容生产者们踢出市场。长期来看,没有人再愿意生产 ai 需要的高质量内容,过去三十年来科技巨头、内容生产者和广告主之间的平衡正在被打破。
当然,谷歌作为这场大模型竞赛的失意者,其对 ai 发展的贡献也不可磨灭,几十年如一日的大量投入,发明了 transformer 这一具有跨时代意义的基础架构,其对 openai gpt 的苦苦追赶犹如 20 世纪 60 年代美苏之间的登月竞赛,最终逼出了世界上首个千亿参数大语言模型。
那么,大语言模型是我们通往 agi (通用人工智能)的正确道路吗?至少目前专家们对此还没有达成共识。尽管大模型展现了惊人的能力,但它也有一些明显的问题。
首先是不可解释性,大模型生成内容是依靠对上千亿个神经元连接参数的计算,因此难以解释其决策过程和生成结果的具体原因。这种不可解释性导致的黑盒决策模式会造成很多应用上的问题,特别是在一些敏感领域,模型的不可解释性与监管要求相冲突。
人工智能和大数据专家窦德景博士认为,与传统的深度学习模型相比,其实大语言模型的可解释性已经有所提升了。原因是我们可以用提示工程对其进行模型事后解释,从而探索大模型行为的边界。这样可以从完全不可见的黑盒模式,向介于白盒和黑盒之间的状态转变,这种模式又被称为“玻璃盒子”。
其次,人工智能的伦理和安全也是一个必须得到重视的问题。很多专家已经建议各国政府行动起来,建立类似于国际原子能机构的跨国组织,用来监管人工智能的发展。openai 的首席科学家伊利亚•苏茨克维尔(现已离开 openai)曾在公司内部建立了一支超级对齐团队,确保人工智能的行为能对齐人类的价值观,从算法层面保护人类的根本利益。
阿里巴巴则尝试从训练数据的角度出发解决问题。天猫精灵和通义大模型团队联合提出了 100poisonmpts(又称“给 ai 的 100 瓶毒药”)项目, 该项目提供了业内首个大语言模型治理开源中文数据集,由十多位知名专家学者成为首批“给 ai 的 100 瓶毒药”的标注工程师。标注人各提出 100 个诱导偏见、歧视回答的刁钻问题,并对大模型的回答进行标注, 完成与 ai 从“投毒”到“解毒”的攻防。首批领域数据围绕 ai 反歧视、同理心、商榷式表达等目标,已覆盖法理学、心理学、儿童教育、无障碍、冷知识、亲密关系、环境公平等维度。
最后是计算效率问题,训练大模型需要的计算量极大,能耗也惊人。例如,训练 gpt-3 耗用了 1.287 吉瓦时电量,大约相当于 120 个美国家庭一年的用电量。在全球面临气候变化的影响越来越大的今天,如何提升大模型的训练效率以及云计算的效率是各大 ai 企业和云计算设施提供企业必须面对的问题。
1994 年,凯文 · 凯利在他的《失控》一书中,对 ai 有着极为精准的预测:
“我们几乎不会注意到水果上的标签、电影字幕等无处不在的文字。马达刚开始出现的时候就像一只巨大高傲的野兽,但自那以后,它们逐渐缩小成为微事物,融入(并被遗忘于)大多数机械装置之中。最深刻的技术是那些看不见的技术,它们将自己编织进日常生活的 细枝末节之中,直到成为生活的一部分。
aigc 大爆发之后,内容创作者们发现,ai 作为辅助性工具在帮助他们提供灵感、产生创意、提高效率等方面已经越来越游刃有余,他们在日常工作中的不同层面都需要 ai 的协助,这也让工具型 ai 应用平台得以迅速出现。内容创作者从相关应用平台提供的产品中获得更多想象力和创意,并节省了大量的时间。
现在,ai 不仅能帮助人们进行艺术创作,造出数字分身,还能帮助人们一键完成曾经的繁琐工作。人们已经从对技术的好奇与观望,转为思考如何让大模型落地并产生真正的价值。
当我们将 ai 视为工具而不是人类的替代品的时候,一种 ai 与人类新的共处方式也就出现了。
麦肯锡的研究报告称,生成式 ai 有望为全球经济贡献约 7 万亿美元的价值,而这些价值的测算主要来自两个角度:第一是 60 多个生成式 ai 用例在 16 个业务职能中的应用;第二是生成式 ai 对 850 个职业及超过 2100 项具体工作任务的影响。
预计到 2030 年前,约 50% 的工作内容将实现自动化。在中国,这可能意味着约 2 亿劳动者需要进行技能转型或升级。生成式 ai 不仅能够提高工作效率和创新能力,还将深刻改变未来的工作方式和经济结构。
免责声明:本站部分文章系转载自网络,如有侵犯,请联系凯发k8官网下载客户端中心立即删除。另:本文仅代表作者个人观点,与88蓝保健品网无关。如无特殊注明均为本站(88蓝保健品网)原创,ks8凯发官方网站的版权归88蓝保健品网所有,如需转载请注明来源地址.