全球仅三人!扎克伯格成功进入2000亿美元俱乐部

图片

据快科技9月25日消息,Meta首席执行官马克·扎克伯格,最新加入了2000亿美元俱乐部。

在彭博亿万富翁指数上,扎克伯格的个人财富在当地时间9月23日(本周一)达到了2000亿美元,较上一个交易日增加10.6亿美元,较去年年底则是增加722亿美元(约合5424亿元人民币)。

目前,扎克伯格的财富已超越包括甲骨文联合创始人拉里・埃利森以及前微软首席执行官比尔・盖茨和史蒂夫・鲍尔默等科技巨头。

图片

目前全球仅有三个人位居这一行列,分别是特斯拉首席执行官埃隆·马斯克、亚马逊创始人杰夫·贝索斯和扎克伯格。

图片

图源:IT之家

据本周一的彭博亿万富翁指数上,马斯克的个人财富为2650亿美元,位居此行列第一。

第二富有的则是贝索斯。数据显示,他的个人财富为2160亿美元。实际上,贝索斯是今年重新加入到了这个超级俱乐部的,这要归功于其净资产激增了390亿美元。今年,亚马逊股价上涨了约28%,达到190多美元,接近历史最高水平。

扎克伯格成功跻身2000亿美元俱乐部,得益于他持有的Meta股份,他持有约3.455亿股,是该公司的最大股东。


Meta的股价在今年表现强劲,继去年股价大涨85%之后,今年股价又累计上涨了60%,股价一度达到573.98美元的历史新高。

扎克伯格将Meta今年的强劲表现归因于人工智能的重视,他在7月的财报电话会议上表示,Meta AI有望在今年年底成为全球使用最广泛的AI助手。

该公司第二季度的营收从320亿美元增长到了390.7亿美元,同比增长了22%。

1
扎克伯格:叠加技术buff是关键

据悉,Meta首席执行官马克·扎克伯格在上周的访谈中,深入阐述了他对技术领导力的独特见解。

图片

图源:IC photo

扎克伯格表示,领导者缺乏技术能力是他在前往硅谷时最先注意到的问题之一。“CEO不懂技术,董事会里也没有任何技术人员,管理团队里只有一名工程主管懂技术,其他人都不懂。”他说,“好吧,如果这是你的团队,那么你就不是一家科技公司。

作为一位年仅19岁便在哈佛宿舍创立脸书、深谙编程之道的科技领袖,扎克伯格在构建管理团队时,始终将技术背景视为不可或缺的考量因素。“我一直在小心翼翼做的一件事就是,让我们管理团队中的许多人拥有不同的背景,主要是那些管理这些大型产品组的人,他们通过公司的不同技术途径成长起来,我认为这会在管理层中达到一种平衡。”他说。

然而,扎克伯格也明确指出,技术虽重要,却非领导力的唯一标尺。“你不希望每个人都是工程师,因为还有其他重要的事情,但如果你在公司中没有足够的工程师,那么你就不是一家科技公司。”

2
AI领域的“相爱相杀”

作为科技界两大重量级人物,马斯克和扎克伯格再次在社交媒体上展开新一轮的互动。

马斯克与扎克伯格的“约战”可以追溯到2023年6月马斯克首次提出挑战。虽然两人之间的对决至今未能真正上演,但双方持续表明了他们在人工智能领域的竞争态势。

当地时间今年7月24日,马斯克再次向扎克伯格发起了对决挑战。马斯克表示愿意在任何时间、任何地点,遵循任何规则与扎克伯格进行对决,并将对决的所有条件交由扎克伯格决定。

图片

图源:X平台截图

而扎克伯格则在社交媒体上对马斯克的挑衅做出了回应:“我们真的又要这么做了吗?”

作为特斯拉、SpaceX的CEO,以及OpenAI的支持者,马斯克在人工智能领域拥有深厚的背景和影响力;而扎克伯格,作为Meta的创始人,其公司近期推出了备受关注的人工智能模型Llama3.1,这无疑为双方的对决增添了更多看点。

管两人在某些问题上存在分歧,但在人工智能领域,他们展现出了相似的竞争策略,都致力于开发前沿的人工智能产品,旨在打破OpenAI、微软等巨头的市场垄断地位。

此外,Meta最近推出的人工智能模型Llama 3.1赢得了马斯克的赞誉。马斯克公开表示,这一开源模型的性能超越了OpenAI的GPT-4,并称赞扎克伯格在推动开源方面的努力。

图片

图源:X平台截图

3
AI领域迎来开源曙光

开、闭源之争一直是AI圈的中心话题。


扎克伯格曾提到:“我相信Llama 3.1的发布将成为行业的一个转折点”。360集团创始人周鸿祎也曾表示,开源社区聚集全球上千家公司、数十万程序员和工程师,开发力量是一个闭源公司的数百倍。


当地时间7月24日凌晨,美国科技巨头Meta推出迄今为止性能最强大的开源大模型——Llama 3.1 405B(4050亿参数),同时发布了全新升级的Llama 3.1 70B和8B模型版本。


Llama 3.1 405B支持上下文长度为128K tokens,是全球迄今为止性能最强大、参数规模最大的开源模型,在基于15万亿个tokens、超1.6万个H100 GPU上进行训练,这也是Meta有史以来第一个以这种规模进行训练的Llama模型。



截至今年7月30日,Llama模型因性能佳、开源、多方合作等优势,其所有版本的总下载量已超过3亿次。


研究人员基于超150个基准测试集的评测结果显示,Llama 3.1 405B可与GPT-4o、Claude 3.5 Sonnet和Gemini Ultra等业界头部模型相媲美,包括亚马逊AWS、英伟达、微软Azure和谷歌云等25家头部公司与Meta达成合作,引入Llama 3.1。


“这对于我们来说是久旱逢甘霖。”独立分析师Jimmy告诉《中国企业家》。苦于缺乏长期高质量的训练数据已久,全球AI领域的开发人员终于迎来了开源曙光。一般来说,较小的专家模型(参数规模在10亿~100亿)通常利用“蒸馏技术”,也就是利用更大的模型来增强训练数据。但由于巨头OpenAI的闭源,此类训练数据的缺乏是各大模型共同的难题。



来源 | 读特新闻综快科技、中国企业家杂志、IT之家
编辑 | 李婧
审读 | 郭建华
二审 | 张颖
三审 | 万晖









q
读特精选


图片
图片
图片









图片