> 自媒体 > (AI)人工智能 > 一文通关!ChatGPT等大语言模型33个关键概念全解!
一文通关!ChatGPT等大语言模型33个关键概念全解!
来源:午夜尼奥
2025-11-12 10:07:38
69
管理

写给大众用户的大语言模型通俗指南,避开所有数学公式,直击本质、从基础到实践的清晰指南,你不用懂数学、不用会编程,也不用记复杂的提示词。

什么是生成式 AI?

如今的生成式模型是十年技术积累的成果,但直到 2022 年,才让大多数人真正感受到它的 “惊艳时刻”。生成式 AI 是机器学习(Machine Learning,ML)的一个分支,核心是让 AI 模型学习海量真实世界数据,然后生成类似人类创作的全新内容 —— 比如文本、图片、代码等。

这段话可能有点绕,咱们先理清几个基础术语,再深入聊大语言模型:

人工智能(AI)是个大范畴:让计算机完成看起来需要 “智能” 才能做到的事。机器学习(ML)属于 AI 的子集:系统靠数据学习规律,而不是靠硬编码的规则。深度学习(Deep Learning,DL)是机器学习的一种方式:让计算机通过海量案例练习,学会识别模式。自然语言处理(Natural Language Processing,NLP)是 AI 专门处理人类语言的分支,就这么简单。生成式 AI 是 AI 的一个分支:专注于 “创造” 新内容(文本、图片、音频、代码等),核心是 “生成”,而不是像传统 AI 那样专注于 “预测”。大语言模型(LLM)是生成式 AI 家族中的深度学习模型,专门负责文本生成。

记住这个关系链就够了:AI → 机器学习 → 深度学习 →(自然语言处理)→ 大语言模型(LLM)

理清了这些标签,咱们就能明白大语言模型到底是怎么工作的了。

什么是大语言模型(LLM)?

大语言模型本质上是个超强的 “自动补全系统”。它一辈子只在重复回答一个简单问题:“给定这段文本,下一个最可能出现的token是什么?”

这里的 “token”,就是文本的最小有意义单位 —— 可能是一个完整的词(比如 “你好”)、单词的一部分(比如 “run” 和 “ning”),也可能是标点符号(比如 “?”)。

举个例子:当你问 ChatGPT“什么是微调(fine-tuning)?” 时,它并不是 “知道” 答案,而是逐个预测下一个token:

最可能出现的第一个token是 “微调”;基于第一个token,下一个最可能的是 “是”;再接下来是 “将”;依此类推……

直到生成完整句子:“微调是在预训练模型的基础上,用更小、更具体的数据集进一步训练的过程。”

输入:什么是微调?大语言模型的核心功能:预测序列中的下一个token,从而生成回应。

它被称为 “大语言模型”,原因很简单:

规模大(Large):拥有数十亿个内部变量(称为 “参数”),且训练数据量极其庞大;聚焦语言(Language):专门用于理解和生成人类语言;本质是模型(Model):是对所学模式的数学化表达。

所以说到底,大语言模型就是个超级高级的 “猜词机器”—— 一次次猜下一个token,直到拼凑出完整答案。

那它怎么能精准猜对呢?这就离不开它漫长的 “学习过程”—— 预训练(pre-training)。

就像让一个学生读完一座巨大图书馆里的所有书(对 LLM 来说,就是互联网上的海量文本),它不会逐字逐句背诵,而是学习语言、句子和思想之间的搭配模式,直到能准确预测任何句子的下一部分。GPT-5 这类基础模型(Base Model),就是这么通过预训练构建出来的。

隐藏的 “黑科技”:大语言模型的内部运作

你不用搞懂 LLM 的每一个 “零件”,但理解token、嵌入、参数这些核心组件,会让它不再神秘。还能帮你看清模型的优势、短板,以及如何让它给出更好的结果。

1. token

大语言模型本质是个数学系统,有个核心问题:它只懂数字,不懂文字。那它怎么 “读懂” 你问的 “什么是微调?” 呢?

第一步就是把文本转换成模型能处理的形式 —— 先将句子拆成最小有意义单位,也就是token。

这个拆分工作由 “(tokenizer)” 完成:

先把句子拆成token列表:[“什么”, “是”, “微”, “调”, “?”](不同token器拆分规则略有差异,比如可能拆成 [“什么”, “是”, “微调”, “?”]);再把每个独特的token换成对应的 ID 数字。

最终,“什么是微调?” 会变成一串模型能理解的数字序列,比如 [1023, 318, 5621, 90177, 30]。

但token本身没有意义,只是一串 ID,要让模型理解,还需要另一层处理。

词嵌入通过向量差异体现关系 —— 就像 “狗→小狗” 和 “走→跑” 的向量变化是平行的,这就是意义的几何编码方式。

当模型把问题转换成嵌入后,这个嵌入不会孤立存在,而是进入 “潜在空间”—— 也就是所有嵌入所在的巨大 “意义地图”。

它不是物理空间,而是模型构建的数学空间。训练过程中,模型会在这个空间里整理各个概念的嵌入,让它们的位置和距离能反映真实世界的关系。

比如你问 “什么是微调?”,这个问题的嵌入会和其他关于 “训练方法” 的嵌入靠得很近。模型的任务很简单:在这个 “邻里区域” 里,找到最匹配的内容。

而支撑这种能力的,是模型的内部设置 —— 也就是参数。

4. 参数(Parameters)

ChatGPT 这类系统的基础模型,拥有数十亿个内部变量,这些就是 “参数”。它们不是数据库里的条目,也不是事实列表,而是可调整的 “设置”,让模型能捕捉语法、概念和模式。

你可以把参数想象成一堵巨大的 “旋钮墙”:

一开始,所有旋钮都是随机设置的,毫无用处;训练过程中,模型会重复数万亿次 “预测下一个token” 的游戏;每次猜错,就微调一下这些旋钮,让它慢慢接近正确答案;经过无数次微调后,最终的旋钮设置就编码了模型学到的一切 —— 包括语言模式、概念关联和通用知识。

如果不经过训练,数十亿个随机旋钮毫无意义,只有通过漫长的训练,它们才能承载知识。

大语言模型如何学习:“黑科技” 的训练过程5. 预训练(Pre-training)

把随机参数变成 “知识库” 的过程,就是预训练。

这个基础阶段,模型会接触互联网上的海量文本和代码,核心目标只有一个:预测序列中的下一个token。每次预测后,它会对比真实答案,然后通过训练算法微调数十亿个参数。经过数万亿次重复,这些微小的调整会逐渐编码语言的统计模式 —— 这就是 GPT-5 这类基础模型在适配实际应用前,学习语法、常识和基础推理能力的方式。

这个训练过程可以拆成两步理解:

(1)核心任务:预测下一个token

给模型一段文本片段,比如 “微调是一个____的过程”,它要猜测缺失的部分。一开始猜测是随机的,但每次猜错后,参数会微调,让下一次更可能猜到 “进一步训练” 这类正确答案。

(2)训练结果:一个模式识别引擎

经过数万亿次修正,模型会变得特别擅长识别模式。它见过无数次 “微调是进一步训练的过程” 这类表达,所以能牢牢记住这种关联 —— 但它并不是在 “理解” 或 “思考”,只是在复现学到的模式。

预训练让模型装满了互联网上的模式,但此时它还只是个 “文本预测器”。要明白这为什么是个问题,就得区分基础模型和指令模型。

6. 基础模型(Base Model)vs 指令模型(Instruct Model)

模型完成预训练后,就是 “基础模型”。它虽然知识渊博,但还不是个 “贴心助手”。

比如你用原始基础模型问 “什么是检索增强生成(RAG)?”,它可能只是机械地续写句子,或者给出一个笼统无用的定义。它擅长预测文本,但没被训练过遵循指令或进行对话。

要让它变成聊天机器人、搜索助手这类实用工具,就需要 “指令模型”。

指令模型是基础模型经过额外训练后的产物 —— 这种训练叫 “微调”,用的是专门的 “指令 - 答案” 配对数据集。这个过程不会教模型新事实,而是教它 “怎么做事”:理解用户意图、给出清晰解释、结构化呈现回应。

ChatGPT 和 Claude 都是指令模型,它们从设计之初就是为了提供帮助、响应需求,是任务导向型应用的核心。

而把基础模型变成指令模型的关键一步,就是微调。

7. 微调(Fine-tuning)

微调,就是把完成预训练的模型,用更小、质量更高的数据集再训练一次,让它专门适配某个任务。

比如 ChatGPT 会拒绝不安全的请求,会应要求简化复杂概念,还会避免偏见或冒犯性语言。对齐的目标不是让模型 “更准确”,而是让它的行为实用、符合社会规范。

9. 基于人类反馈的强化学习(RLHF)

那怎么实现对齐呢?总不能直接告诉模型 “要贴心” 吧?我们需要一种方式,让它明白人类眼中的 “优质” 和 “贴心” 是什么样的 —— 这就是基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)。

系统提示词(System Prompt):高层级指令,定义模型角色和约束,用户提示词(User Prompt):具体的问题或指令,即时交互

发送给模型的完整指令和上下文,就是 “提示词”。一个设计良好的提示词通常包含两部分:

系统提示词:设定模型的核心角色和边界,是每次交互都生效的 “永久指南”。比如 ChatGPT 可能有个隐藏的系统提示词:“你是一个贴心的助手,回答要清晰简洁,避免不安全或有偏见的内容。”用户提示词:用户当下的具体问题或指令,比如 “什么是微调?”

模型会同时处理这两部分:系统提示词告诉它 “怎么表现”,用户提示词告诉它 “做什么”。这种分离能确保模型的回应始终贴心、不跑偏。

但对话很少只有一轮,要让模型记住上下文,就需要 “上下文窗口”。

11. 上下文窗口(Context Window)

聊天助手要实用,必须能处理后续问题。比如你问 “能换种方式解释吗?”,模型得知道 “那种方式” 指的是什么 —— 这就靠上下文窗口来管理 “记忆”。

这样一来,每个回应都有可验证的来源,既提升了准确性,也让用户更信任输出。

19. 工作流(Workflow)vs 智能体(Agent)

构建具备 “行动能力” 的 AI 系统,主要有两种方式,各自的控制程度和灵活性不同:

工作流(Workflow):开发者定义固定、可预测的步骤序列,LLM 只是这个过程中的一个组件。比如 Perplexity 这类 RAG 系统,永远遵循 “检索→增强→生成” 的固定流程,可靠性高、易控制;智能体(Agent):让 LLM 充当核心 “大脑”,自主主导流程。不给固定路径,而是给它一个目标和一套工具(比如网页搜索、计算器),让它动态规划该用什么工具、按什么顺序用,来实现目标。智能体更灵活,但可预测性较低。20. 智能体 AI(Agentic AI)

现在大多数聊天机器人都是 “被动响应型”:等你提问,才给一个答案。而智能体 AI 要解决的核心问题是:系统能自主规划并完成多步骤任务吗?

智能体 AI 让 LLM 能规划行动、执行任务,以达成复杂目标 —— 这让模型从 “工具” 变成了 “系统大脑”。

比如你不用只问 “什么是微调?”,而是可以说 “做一份关于微调的学习指南”。智能体助手会自主搜索文档、提取核心概念、整理成结构化总结,全程不用你额外输入。

现在已经有这类工具的早期版本了:比如 Gemini Deep Research、OpenAI Deep Research、Perplexity Deep Research,能自主搜索来源、收集见解、生成有条理的输出;编码领域的 Claude Code 和微软 Copilot Agent Mode,能规划并完成多步骤编程任务,不止于研究。

模型的不同形态:大语言模型家族与权衡21. 专有模型(Proprietary)vs 开源模型(Open-Source)

用 LLM 开发应用时,迟早会面临一个实际选择:选哪种模型?

如果只是实验,可能无所谓,大概率会从 ChatGPT 这类专有 API 开始(好用又易获取)。但如果要大规模部署、降低成本或定制系统,模型类型的选择就至关重要了。

主要分三类,各自在成本、控制度和复杂度上有明显权衡:

专有模型(Proprietary Models):由公司拥有和运营(比如 OpenAI 的 GPT-5),通过付费服务访问,无法查看或修改内部工作机制。很多开发者从这里起步,因为能力强、API 易集成;开放权重模型(Open-Weight Models):公开模型权重(比如 Meta 的 Llama 3.1、Mistral 7B、谷歌的 Gemma 2),但不算完全 “开源”—— 训练数据和方法通常不公开,许可证也可能有限制。这类模型透明度高、可自行部署,还能享受尖端性能;开源模型(Open-Source Models):真正意义上的开放,不仅公开权重,还提供训练代码、数据和方法,且基于宽松许可证。控制力和可复现性最强,但性能通常不如顶尖专有模型或开放权重模型。22. 应用程序接口(API)

不管选哪种模型(专有、开放权重、开源),你的应用都需要一种方式和它 “沟通”—— 大多数时候,尤其是入门阶段,这种沟通是通过 API 实现的。

API(Application Programming Interface)就是应用和模型提供商的 “沟通桥梁”:你发送提示词,它返回生成的文本。

可以这么理解:就像用外卖软件点餐,软件不做饭,只是把你的订单发给餐厅,再把做好的饭送到你手上。你的代码也不会运行庞大的 LLM,而是通过 API 向提供商的服务器发送请求,模型生成回应后再返回给你。

比如你在浏览器里用 ChatGPT,并不是在笔记本电脑上运行 GPT-5,而是你的消息通过 API 发送到 OpenAI 的服务器,生成答案后再传回你的屏幕。

就算是在自己设备上用开放权重模型,通常也会通过 API 调用 —— 这样应用的交互方式能保持一致。

23. 小型语言模型(SLM)

大型模型虽然强大,但运行成本很高。而 “小型语言模型(Small Language Model,SLM)” 的出现,提供了另一种选择。

SLM 参数少(通常不到 150 亿),专门优化特定任务。小巧的体型让它们速度快、运行成本低,还能在笔记本电脑、智能手机这类本地设备上运行。

比如微软的 Phi-3 和 Mistral 的 7B,都是能在消费级硬件上运行的 SLM。这意味着应用可以提供私密聊天、离线助手、本地副驾驶等功能 —— 数据存在自己的手机里,不用上传到云端,既省钱又能离线使用。

24. 模态(Modality)与多模态(Multimodality)

现在很多模型只能处理一种输入:文本 —— 这就是 “模态”。如果你上传一张图表,问 “这张图是什么意思?”,纯文本模型就无能为力了。

这时候就需要 “多模态” 模型 —— 能同时处理文本、图片、音频等多种输入,让答案更贴合上下文、更实用。

现在已经有这类系统了:GPT-4o 和 Gemini 1.5 Pro 能同时接收文本、图片和音频,交互更自然。

顺便说下图像生成:很多工具会把 LLM 和扩散模型(diffusion model)结合 —— 扩散模型从噪声开始,逐步 “去噪”,在文本引导下生成图片(比如 Stable Diffusion、Midjourney、DALL・E)。还有些模型本身就是多模态的,能直接结合文本和图像生成,不用依赖外部工具。

第一种方式模块化、灵活;第二种更无缝,两者在质量、控制力、速度和成本上各有权衡。

25. 推理模型(Reasoning Models)

推理模型是一类新型 LLM,专门优化多步骤问题解决。它们不会急于回答,而是会 “先思考、记笔记”,帮助自己专注任务、对比选项、遵循规则、做简单计算,或回答 “先解释再决策” 的问题。

你可以把它们理解为自带 “一步步思考” 功能的模型。如果任务的核心是 “思考”—— 比如整合观点、权衡利弊、串联步骤,就适合用推理模型。

当然也有权衡:这类模型通常运行时间更长、成本更高。而简洁的指令模型,更适合快速查定义、短文本改写或简单查询。

衡量性能:怎么判断模型好不好用?26. 基准测试(Benchmarks)

选模型时(比如 GPT-4o、Llama 3.1、Claude 3),怎么客观对比它们的原始能力?答案是 “基准测试”。

基准测试是标准化的测试,用来衡量和对比不同 LLM 的能力,覆盖多种任务:常识(比如 MMLU)、编码(比如 HumanEval)、逻辑推理(比如 BBH)等。

让不同模型做同一套基准测试,就能得到分数,进而排名、找出它们的优缺点 —— 这在实际应用前非常重要。

要注意两点:

基准测试是 “任务特定” 的:编码能力最强的模型,不一定擅长推理或总结;新的基准测试不断出现,随着模型升级和任务重心变化,排名也会变动。

两个常用的真实世界基准测试排行榜:

Hugging Face Open LLM Leaderboard:对比开放权重模型在 MMLU、HumanEval、GSM8K 等任务上的表现;Chatbot Arena(由 LMSYS 推出):通过众包方式让用户一对一对比 ChatGPT、Claude、Gemini 等聊天模型,按用户偏好排名。27. 指标(Metrics)

基准测试分数高,说明模型有潜力,但不代表它在你的应用里表现好。就算是顶尖模型,也可能因为提示词设计差、检索到无关文档或输出不清晰,给出糟糕的答案。

所以还需要 “指标”—— 针对具体使用场景的质量评估标准。比如在 RAG 类聊天助手中,常用两个指标:

忠实度(Faithfulness):答案是否只基于检索到的文档?(用来衡量幻觉控制效果);答案相关性(Answer Relevance):答案是否直接回应了用户的问题?(衡量检索和接地的质量)。

指标能帮我们从 “这个模型总体好不好?”,聚焦到 “这个系统对我们的用户好不好用?”。

28. 大语言模型作为评判者(LLM-as-Judge)

有了忠实度、相关性这类指标,怎么在成千上万次对话中评估它们?手动检查每一个答案根本不现实 —— 这就是 “大规模评估” 的难题。

解决方案是 “LLM-as-Judge”:用一个强大的尖端 LLM(作为 “裁判”),自动评估另一个模型(作为 “学生”)的输出。

具体做法:给裁判模型提供原始提示词、学生模型的回应,以及基于指标设计的评估标准,裁判会返回分数和评估说明。

这让大规模快速、一致的评估成为可能。比如很多研究实验室现在用 GPT-5 或 Claude Opus 当 “裁判”,评估小型模型在忠实度、推理能力、风格等方面的表现。

模型的短板(及修复方法)29. 幻觉(Hallucination)

大语言模型的一个主要问题是 “幻觉”—— 自信地编造虚假信息。

LLM 的目标是预测下一个可能的词,而不是核实事实。这导致它可能生成听起来很有道理,但完全是编造的内容:比如伪造不存在的研究论文引用、虚构法庭案例、编造错误的人物生平。

危险之处不在于错误本身,而在于这些错误被呈现得非常有说服力,很难察觉。在医疗、金融、法律等领域,一次幻觉就可能造成严重危害。

30. 数学与逻辑推理能力薄弱

虽然 LLM 看起来语言流畅,但它们并不是为遵循严格逻辑或执行计算而设计的。它们能模仿数学表达式,但没有计算器或求解器那样的可靠性。

这种短板在处理大数乘法或多步骤问题时会暴露:可能第一步是对的,后面就跑偏了,得出矛盾的结论。比如早期 GPT 版本常犯基础数学错误(比如声称 7×8=54),也搞不定需要细致思考的逻辑谜题。

这些错误凸显了 LLM 的本质是 “模式匹配者”,而不是 “思考者”。因此,在金融建模、科学分析、代码调试等任务中,除非搭配能保证步骤准确性的外部工具,否则使用 LLM 风险很高。

31. 继承偏见(Inherited Bias)

所有 LLM 都会从训练数据中继承偏见。互联网文本反映了人类的各种观点,包括刻板印象和偏见。

这里的 “偏见” 指模型回应的倾向性 —— 有些偏见有用,有些则有害。比如有偏见的模型可能会把男性和技术工作、女性和护理工作绑定。研究表明,模型在求职推荐、情感分析、图像生成等场景中可能产生有偏见的结果。

这既是社会问题,也是实际问题:有偏见的输出会侵蚀信任、加剧不平等,或损害品牌声誉。

当然也有积极的一面:通过刻意 “引导偏见”,可以培养模型的有用特质 —— 比如让客服助手始终保持耐心、支持的语气。

32. 知识截止日期(Knowledge Cutoff)

另一个结构性局限是 “知识截止日期”。模型的训练数据只到某个特定日期,之后的知识它都 “不知道”—— 相当于知识被 “冻结” 了。

比如 GPT-3.5 的知识截止到 2021 年,无法回答 2021 年后的事件(包括 ChatGPT 自身的发布)。如果你问它上周发布的新 AI 论文,或编程语言的最新版本,它可能给出过时或编造的答案。

这种滞后性让 LLM 在时事、新研究、企业专属知识等快速变化的领域不可靠。如果没有检索机制或用最新数据微调,它们无法弥补这个时间差 —— 用户也不能把它们当作实时信息来源。

33. 护栏 / 安全过滤器(Guardrails / Safety Filters)

就算模型答案准确,也可能输出不安全、不合适或偏离主题的内容。“护栏” 和安全过滤器就是为了防止这种情况而设计的系统。

它们会检查用户的输入和模型的输出是否符合既定规则,确保助手始终在安全、相关的范围内回应。

比如有人问聊天机器人 “怎么制造武器”,防护完善的系统会拒绝回答,而没有防护的系统可能会提供帮助。OpenAI、Anthropic 等公司都会设置这类过滤器,拦截暴力、自残、隐私数据相关的回应。

没有这些措施,AI 应用可能面临声誉损失、违反法规或损害用户体验的风险。护栏是让原始语言模型变成专业、日常可用工具的关键。

解决模型的短板

每个短板(幻觉、推理错误、偏见、知识过时、缺乏护栏)都有对应的技术解决方案,但没有一种方案是万能的,且各有权衡:

幻觉:最好通过 “接地” 缓解,常用检索增强生成(RAG)。让模型依赖可信文档,而不是不可靠的内部记忆 —— 但这需要强大的知识库支撑;推理薄弱:可以给模型搭配计算器、代码解释器、结构化工作流等工具。让模型不再独自完成所有工作,是充当 “路由器”,把子任务交给合适的工具 —— 这能提升数学、逻辑和多步骤任务的可靠性,但会增加延迟和系统复杂度;偏见:通过对齐技术(如 RLHF)、精心设计的系统提示词和安全护栏来管理。这些方法共同引导模型输出有帮助、公平的内容。同时,偏见也可以被刻意引导:比如让支持型助手始终保持耐心、鼓励的语气;知识截止:有多种解决方式。RAG 能给旧训练数据补充私有或最新文档;用新数据集微调能让模型适配特定领域;实时网页搜索能获取最新信息。每种方式在时效性、准确性、隐私性和成本上的表现不同,需根据场景选择;护栏:作为最后的安全防线,过滤输入和输出,确保范围合规,防止有害、无关或敏感内容。有效的护栏会结合静态规则和动态监控,在灵活性和安全性之间找到平衡。

实际应用中,难点不在于知道这些短板或解决方案,而在于针对具体场景选择合适的组合。金融助手、医疗聊天机器人、教育导师,各自需要的检索、推理、对齐和护栏方案都不同。

每一个决策(准确性 vs 成本、时效性 vs 安全性)都需要权衡。构建可靠的 AI 不是消除限制,而是设计出能妥善应对限制的系统。

总结

大语言模型是高级的模式匹配者,而不是真相来源。它们的优势是语言流畅、有一定推理能力和广博的知识,但也存在幻觉、偏见、知识过时等短板。

关键在于如何围绕这些特点设计系统:选择合适的提示词技巧、检索方式、微调策略和护栏机制。

如果只能记住一点,那就是:

了解这些基础概念,能让你更有效地使用 LLM,清晰看清它们的局限 —— 这正是区分 “把 LLM 当作魔法或完全不可靠工具” 和 “构建可信任系统” 的关键。

0
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与本站无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 凡本网注明 “来源:XXX(非本站)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。 如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。 QQ:617470285 邮箱:617470285@qq.com
相关文章
三菱退出中国?官方回应:将与现有伙伴继续合作
6月23日,有媒体报道称,三菱汽车将逐步取消包括欧洲、中国在内的市场业..
2026款三菱帕杰罗曝光,第二代超选四驱+2.4T/2.0T双动力..
硬派越野圈的“老将”居然换小排量了?2026款三菱帕杰罗刚露出消息,就把..
恩智浦计划退出5G功率放大器业务;三星或将退出SATA SSD市场;三菱化学出售..
五分钟了解产业大事每日头条芯闻 恩智浦计划退出5G功率放大器业务我国首..
实拍三菱全新欧蓝德!搭1.5T四缸,内饰配大屏,不比奇骏香?..
在重庆车展上,全新一代三菱欧蓝德终于在国内亮相了,相比其国外的发布时..
试驾广汽三菱奕歌:小巧灵动
■ 阅车试驾车型:广汽三菱奕歌长/宽/高(mm):4405/1805/1685轴距(mm..
新车 | 四驱越野MPV/配侧滑门/2.2T柴油机,新款三菱Delica D:5亮相..
文:懂车帝原创 高帅鹏[懂车帝原创 产品] 日前,2025东京车展开幕,新款..
三菱集团的传奇发家史
“三菱”两个字,在日本就像一把瑞士军刀:银行、飞机、汽车、火箭、寿司..
2026款三菱Montero曝光,S-AWC四驱+差速锁全配,普拉多见了..
当 “普拉多见了都得慌” 的话题在越野圈炸锅,2026 款三菱 Montero 的曝..
日韩巨擘数据,三星2.1万亿三菱21万亿,中国第一谁?..
图片来源于网络2025年,让人火大的资本较量又来一波。韩国三星手里握着2...
关于作者
冰冷的开水..(普通会员)
文章
1646
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行

成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237

@2022 All Rights Reserved 浙ICP备19035174号-7
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索