AI Coding 不完全入门指南

发布时间:2025-08-25 11:25

《瑜伽冥想全书:从入门到精通的完整指南》 #生活技巧# #健康生活方式# #健康生活方式书籍# #瑜伽与冥想教程#

最近在做一个 AI Coding 相关的项目,虽然有些小问题,但整体效果不错。

过程中积累了一些心得和感悟,稍作梳理,整理出这篇文章。

权当是 AI Coding 的简短入门指南

文章不会涉及大语言模型(Large Language Model,LLM)背后晦涩艰深的原理,只是从用户视角,以一个务实的心态,罗列现有的一些功能上趋于稳定的工具,谈一谈我们如何有效地利用它们来提高工作效率,解放大脑和双手。

1. LLM 概述

LLM 是一种具有大量参数(通常数十亿)的语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练。

大语言模型是通用模型,在广泛的任务中表现出色,而不是针对一项特定任务(例如情感分析、命名实体识别或数学推理)进行训练。

OpenAI 在 2023 年推出的 ChatGPT (Chat Generative Pre-trained Transformer),让这项技术一夜之间变得家喻户晓。

惊人效果的背后是几十年的摸索。

20 世纪 90 年代,IBM 开创了统计语言建模。

2012 年左右,神经网络被应用于语言建模。Google 在 2016 年将其翻译服务转换为神经网络,由 seq2seq 和 LSTM 网络搭建。

2017 年 NeurIPS 会议,Google 研究员在论文《Attention Is All You Need》中提出 Transformer 架构,目标是改进 seq2seq 技术。

2018 年,OpenAI 提出第一版 GPT-1(Generative Pre-trained Transformer 1),并持续改进,目前迭代到 GPT-4。

ChatGPT 的成功,从商业上验证了大语言模型的市场接受度和可行性

各种 LLM 相继提出,包括今年年初爆火的 DeepSeek。

GPU 生产商 Nvida 的股价飙涨同样得益于此:作为 LLM 的训练基座,GPU 硬件不可或缺。

目前没有人知道边界在哪里

2. AI Coding 工具集

热闹归热闹。

作为务实的程序员,还是多想想如何利用它改善生活。

至少开始将一部分工作委托给它,争取早点下班。

我目前使用的一套工具是:

模型:Claude Sonnet 编辑器:Visual Studio Code AI 助手:GitHub Copilot / ChatGPT

前两个,基本算是业界公认的写代码标配。

至于第三个,还有 Cursor,Trae 可供选择。之前文章介绍过 Trae,现在用得不多,基本被 GitHub Copilot 代替了。

最开始用 Copilot 的时候,更多依赖代码补全,一度觉得很爽,因为有时“猜”得很准。

现在工作流换了,更改为清楚地描述需求(更抽象),让 GitHub Copilot 自己组织目录,填充代码,调试,纠错。只在关键时刻,尤其是发现方向明显开始跑偏时,及时打断,更新信息,接着继续执行。

像 C++ 代码,可能还会自己写,而 Python、前端这种脚本型的,Copilot 出活简直又快又好。

多数时间都是在调 prompt,而非代码。编程的形式变了,从编程语言到自然语言

这是很不一样的体验。

3. Prompt / MCP

Prompt (提示) 和 MCP (Model Context Protocol,模型上下文协议)是两个用来优化 LLM 效果的工具。

LLM 能力很强,但不可避免会犯错

几个常见的错误有:

幻觉(Hallucination)。LLM 有时会生成看起来逻辑流畅,但违背事实的回答。这是因为 LLM 的原理是统计,而统计本身揭示的是关于概率的信息,而非正确与否。 上下文混淆或遗忘。上下文就是 LLM 的记忆系统,和人一样,过长时会遗漏关键信息。 语言歧义。当表述不够清晰,或思维链(Chain of Thought,CoT)不恰当时,生成结果就可能过于发散,俗称跑题。

可以借助一些 Prompt 技巧加以规避。

把 LLM 想象成一个人,他会犯错,你要做的是在合适的时候纠正他

Prompt 工程将这件事情工程化(Engineering)了。

早期文章,OpenAI 官方的提示工程指南 里提到六点技巧:

写出清晰的指令 提供参考信息 将复杂任务分解成多个简单子任务 给模型时间“思考” 使用外部工具 系统测试变更

我一直觉得,这种沟通技巧,不仅是和 LLM,应用在人身上同样如此

因此,Prompt 能力,反映的是沟通表达能力。你能否深刻地认识问题,清晰无误地表达自己的观点,将复杂的概念讲得深入浅出,普通人都能够理解。我想无论在哪个时代,这都是一种非常重要的技能。

这也是我写博客的初衷。

模型上下文协议(MCP)是 Anthropic 所推动的一项开放标准。

MCP is an open protocol that standardizes how applications provide context to LLMs.

MCP 是一个开放协议,它标准化了应用程序如何向 LLM 提供上下文。

在 LLM 完成任务的过程中,上下文是非常重要的,它的准确度、完整性、结构,直接决定了结果的好坏。

如果说 Prompt 是人提供上下文,那么 MCP 则是工具提供上下文

鉴于有些非常具体的任务,LLM 没有办法执行,比如一些终端命令、脚本等。

MCP 则将这种能力封装后暴露给 LLM,间接的 LLM 就学会了如何使用这些工具。

这同样启示我们,要善假于物,将工具作为杠杆,撬动更多的可能性。徒手砍树,远不如拿一个斧子效率高。

4. 思考

毫不讳言,AI 在一定程度上改变了我的生活

这种改变有两个方面:

习惯上,日常想要搜索时,优先会用 DeepSeek 而非搜索引擎。写代码就习惯性地开着 GitHub Copilot。

思维上,信息多对冲,结构化思考,清楚地表达,是我在与 LLM 交流过程中总结下来的经验。

有些人会顾虑,担心过度地使用 AI 会使人变得懒惰,不愿意思考,技能逐渐生疏。

我觉得这点需要警惕,但不必过于忧虑,因为我体验下来,尽管新一代 LLM 的能力越来越强,但距离完全地替代人,为时尚早。

多用,多尝试,或者用我老板的话讲,”Make your hands dirty“。

像是与一个人交往。时间久了,聊多了,就知道它的长处在哪里,弱点有哪些,如何和谐共处。

我对 Al 的看法是,Al 本身不会创造,需要人类与它共同创造,创造的结果好坏与使用它的人的质量高度相关。

与 Al 交谈不像在与一个人交谈,而像在与人类的集体思维交谈。Al 不应该让你减少思考,而应该帮助你增加思考,Al 是你的杠杆。可以让你拓展自己。

— Alex Komoroske,美国程序员

5. 总结

AI 是一个工具。

工具的存在是为了提高效率。

汽车,让一个人行动的边界变得前所未有的辽阔,但人的下肢并没有因此而萎缩。

我想 AI 也是如此。

有些简单任务,它可以代劳,但对于复杂任务的理解,子任务的拆分,流程控制,指令描述,都离不开人的经验和思考

显而易见,在未来,人的分化会更加明显,有些职业正在慢慢消失,当然,新的职业也在涌现。

时代倒逼着每个人做出选择。目前我还在摸索,还没有答案。

(完)

参考

大型语言模型 - 维基百科,自由的百科全书 ChatGPT - 维基百科,自由的百科全书 深度求索 - 维基百科,自由的百科全书 Introduction - Model Context Protocol

网址:AI Coding 不完全入门指南 https://www.yuejiaxmz.com/news/view/1241949

相关内容

软件开发入门自学指南
Python中关于coding=utf
全面解析豆包AI:从入门到精通的必读指南
AI插件入门推荐指南:从零开始玩转人工智能工具
新手指南:完美入门英文版菜谱大全
小白必读:AI入门指南,及实用工具推荐
电脑AI操作指南:从入门到精通,解决常见问题与技巧解析
AI Agent 入门指南:从生活场景到行业应用(新手必看)
科普阅读入门指南
大学生AI辅助作业平台推荐:高效完成作业的全方位网址指南

随便看看