【AiBase提要:】在2024年,我们将看到具有高分辨率和长期连贯性的视频生成。这将需要更多的“思考” ,即系统2的推理和长远规划。
5. 开源LLM与GPT-4的差距缩小。我相信在2024年,我们终将看到一个能与GPT-4相媲美的开源模型。
LLaVA是一个端到端训练的多模态大模型,它将视觉编码器和用于通用视觉和语言理解的Vicuna相结合,具备令人印象深刻的聊天能力。而CogAgent是在CogVLM基础上改进的开源视觉语言模型,拥有110亿个视觉参数和70亿个语言参数。
这一数字与年初相比增长了302亿美元(约合2144亿元人民币),使其成为今年收入最高的企业家之一,其借此登上亿万富豪榜第29位。