马斯克旗下 xAI 已获 5 亿美元投资承诺,该公司发展前景如何?
马斯克发财了,火箭公司SpaceX价值2100亿美元
SpaceX估值2100亿美元,马斯克旗下公司创私营公司新纪录。SpaceX最近以每股112美元的要约价格出售内部股份,估值近2100亿美元,成为美国私营公司估值新高,全球第二,仅落后于字节跳动。
去年12月,SpaceX估值达1800亿美元,5月估值讨论达到2000亿美元,此次提升估值反映了市场对SpaceX的强烈投资需求。
SpaceX凭借高效性,挑战政府主导的航空领域,成立初期经历三次火箭发射失败、公司濒临破产,以及旗下特斯拉和solarcity的破产危机。
然而,SpaceX在2008年成功发射猎鹰1号,标志着私营公司首次成功进行轨道发射,对航空行业产生重大影响。
随后,SpaceX获得NASA和私人投资者资金,开发出一系列航空产品,如猎鹰9号、“龙”飞船、猎鹰重型等,形成多元化商业模式。
主要营收来源包括卫星发射服务、“星链”宽带通信服务、载人航天和运载服务,新业务如“星盾”、点对点货物运输等也在积极拓展中。
SpaceX未上市,但定期向私募机构、内部投资者披露财务状况,投资人的支持与创始人的坚韧帮助公司扭亏为盈。
数据显示,去年一季度营收15亿美元,净利润5500万美元,预计2023年收入90亿美元,2024年增长至约150亿美元。
马斯克梦想将未来变得更美好,追求宇宙星辰激发生活的乐趣,SpaceX将梦想变为现实,商业与情怀双向奔赴。
马斯克连续四年登顶世界首富宝座,财富增长主要得益于特斯拉股价飙升,商业版图涉及六家公司,包括SpaceX、特斯拉、X、Neuralink、xAI、Boring。
特斯拉正在开发三款新车型,包括自动驾驶汽车Robotaxi,以及2万美元以下的车型,计划投资5亿美元部署充电站,提高充电便利性。
上千个Optimus机器人将在明年投入特斯拉工厂,能够通过观看视频学习并执行任务,与人类交流,市场潜力巨大。
xAI完成B轮融资,融资规模高达60亿美元,估值超过240亿美元,成为“最猛AI独角兽”,体现出马斯克的吸金能力。
然而,马斯克在社交媒体X上的改革引发质疑,包括大规模裁员、更换标识、功能改变等,广告收入下滑60%,广告商抵制。
特斯拉面临降价压力,一季度销量环比下降20%,同比下降8.53%,营业利润下滑35%,市场环境和竞争激烈。
尽管面临挑战,马斯克仍稳固商业帝国,但也使企业遭受质疑,成为这个时代最耀眼的商业明星。
刚刚,马斯克xAI官宣开源自家大模型Grok!网友:现压力给到了OpenAI
1. 马斯克旗下的xAI公司宣布即将开源其大型语言模型Grok,这一举措在当前与OpenAI的法律争议背景下显得尤为引人注目。2. 马斯克利用这个机会重申了对开源和非营利性人工智能的承诺,这让他站在了道德的制高点上,并对OpenAI施加了压力。
3. Grok是基于Grok-1的模型,拥有8192的上下文长度,性能与GPT-3.5相当。它以直言不讳和讽刺著称,目前关于其开源的具体细节尚不明确。
4. 开源大型模型对于依赖它们的公司和组织来说具有重大意义,它将增加选择的多样性和定制的可能性。然而,关于其商业化的细节还需等待官方的进一步确认。
5. Grok在xAI平台上作为订阅服务推出,其表现超过了部分竞争对手,如Llama-2-70B和GPT-3.5,并且在简化幽默感方面取得了突破。
6. 马斯克此举不仅是回应OpenAI的商业化转变,也暗示OpenAI可能背离了其最初的非营利目标。
7. 开源的背后,马斯克也看到了商业利益,比如通过开源吸引更多的开发者和客户,类似于Llama和Mistral AI的成功案例。
8. 尽管OpenAI在人工智能领域处于领先地位,但这场开源与闭源的竞争仍将继续。
探秘Grok-1 - 马斯克旗下xAI开源的大模型,参数量3140亿
引言Grok-1,由马斯克旗下xAI公司开发,是一个开源大型语言模型,参数量高达3140亿,成为目前最大参数量的开源模型。遵循Apache 2.0许可,用户可自由使用、修改和分发,用于个人或商业用途。
Grok-1信息如下:
[公式]
参数细节包含以下几个方面:
模型效果
参考链接:华尔街见闻
Grok-1在两个月的训练后达到最佳效果,期望通过用户反馈迅速改进。
在四个月的研发中,Grok-1经历了多次迭代。从330亿参数的LLM原型Grok-0开始,经过优化,最终开发出功能更强大的SOTA语言模型。在HumanEval编码任务中,Grok-1成绩为63.2%,在MMLU中成绩为73%。
xAI使用标准机器学习基准对Grok-1进行评估,显示出强劲性能,超过ChatGPT-3.5和Inflection-1。虽然与GPT-4相比有所不足,但Grok-1在开源模型中表现突出。
代码解析
深入探究Grok的结构:
代码链接:github.com/xai-org/grok...
解析如下:
2. DecoderLayer:分解解码层
3. MHABlock:多头注意力块
4. MultiHeadAttention:多头注意力机制
5. MoELayer:混合专家层
6. Router:路由层
7. DenseBlock:密集块
8. InOutEmbed:输入输出嵌入
9. LanguageModel:语言模型
特别点和技术
2. 分片和并行化:优化计算性能
3. 混合精度:提高计算效率
4. Mixture-of-Experts (MoE):提升模型效率
5. 权重量化:降低存储需求
6. 增量解码:提高响应速度
7. 动态规模初始化:提高训练稳定性