AI测评
Chatbot Arena
Chatbot Arena是由伯克利大学主导团队LMSYS Org发布的一个基准平台,用于大型语言模型(LLM)的对抗评测。该平台采用匿名和随机的方式,让不同的大型模型进行对抗评测,并通过众包方式收集用户反馈和评分。Chatbot Arena使用Elo评分系统,这是一种在国际象棋等竞技游戏中广泛使用的评分方法,以确保评测的客观性和公正性。 Chatbot Arena不仅是一个评测平台,还提供了一个开放的社区驱动的环境,用户可以通过投票来评估不同模型的表现。此外,该平台还支持多模态评测,允许用户与视觉-语言模型进行交互并进行比较。总的来说,Chatbot Arena已成为全球业界公认的基准标杆,广泛应用于大型语言模型的开发和评估。
Chatbot Arena是由伯克利大学主导团队LMSYS Org发布的一个基准平台,用于大型语言模型(LLM)的对抗评测。该平台采用匿名和随机的方式,让不同的大型模型进行对抗评测,并通过众包方式收集用户反馈和评分。Chatbot Arena使用Elo评分系统,这是一种在国际象棋等竞技游戏中广泛使用的评分方法,以确保评测的客观性和公正性。 Chatbot Arena不仅是一个评测平台,还提供了一个开放的社区驱动的环境,用户可以通过投票来评估不同模型的表现。此外,该平台还支持多模态评测,允许用户与视觉-语言模型进行交互并进行比较。总的来说,Chatbot Arena已成为全球业界公认的基准标杆,广泛应用于大型语言模型的开发和评估。
CMMLU 是一个综合性的中文评估基准,专门用于评估语言模型在中文语境下的知识和推理能力。CMMLU涵盖了从基础学科到高级专业水平的67个主题。它包括:需要计算和推理的自然科学,需要知识的人文科学和社会科学,以及需要生活常识的中国驾驶规则等。此外,CMMLU中的许多任务具有中国特定的答案,可能在其他地区或语言中并不普遍适用。因此是一个完全中国化的中文测试基准。