跳至主要內容
《高绩效教练》 企业应用思考 (7-14 章)

《高绩效教练》(第 5 版) 约翰·惠特默(John Whitmore)

以下为全书 (7-14 章) 阅读笔记


第 7 章 | 强有力的问题

告知或提出封闭式的问题,人们就不会去主动思考;提出开放式的问题,人们自然会思考。

案例 1:让运动选手盯住球。体会以下问题的不同效果

问题 选手常见反应
“你在看球吗?” 可能产生抵触或撒谎
“你为什么不看球?” 抵触更强,进入辩解

Kevin 吴嘉文大约 77 分钟关于我创业思考
《高绩效教练》 企业应用思考 (1-6 章)

《高绩效教练》(第 5 版) 约翰·惠特默(John Whitmore)

以下为全书 (1-6 章) 阅读笔记


🤔 第 1 章 | 什么是教练

第 1 章 奠定“教练思维”与“绩效公式”基础,回答“为什么要教练、教练是什么”。

  1. 🎯 教练的本质
  • 教练是一种“赋能式引导”,通过提问与倾听帮助当事人释放潜能,而非直接给出答案或指令。

Kevin 吴嘉文大约 27 分钟关于我创业思考
Life Coach 在企业中的应用

核心观点: 传统的“告诉式(Telling)”管理难以满足当今企业对创新、敏捷和人才发展的要求。通过引入“教练式(Coaching)”管理,组织可以在保持效率的同时激发员工内驱力,让目标落地并持续培养接班人。


1. 传统管理的两大“猴子陷阱”——为何老板永远忙不完?

故事源于管理学经典文章《Management Time: Who’s Got the Monkey?》。文中把“尚待解决的任务”比作一只只猴子。当员工拿着问题来找老板时,如果老板习惯性地说“ 把资料发我这个问题,你可以如何解决 ”,猴子就从员工肩膀跳到老板肩膀。久而久之,老板背上趴满猴子,员工则轻装上阵。由此衍生出两种常见误区:


Kevin 吴嘉文大约 22 分钟关于我创业思考
MCP 基础概念

MCP github 主页MCP 官方文档

MCP Server

# server.py
from mcp.server.fastmcp import FastMCP
from mcp.server.fastmcp.prompts import base

# Create an MCP server
mcp = FastMCP("Demo")


# Add an addition tool
@mcp.tool()
def add(a: int, b: int) -> int:
    """Add two numbers"""
    return a + b


# Add a dynamic greeting resource
@mcp.resource("greeting://{name}")
def get_greeting(name: str) -> str:
    """Get a personalized greeting"""
    return f"Hello, {name}!"

Kevin 吴嘉文大约 3 分钟知识笔记NLPAIGCLLMAgent
咪咔相机分享 | 从零到上线一款 AI 相机小程序

1. 背景

2023 年,妙鸭相机因其创意性的 AI 写真生成功能受到广泛关注,市场上也随之涌现了大量基于 Stable Diffusion(SD)模型的生图应用。作为一名技术爱好者,笔者在妙鸭相机发布后不久,进行了 Stable Diffusion + LoRA 的技术验证,并发现了搭建类似 AI 相机的可行性。

参考文章:妙鸭=SD + Lora? 对 SD+LoRA 的一些探索与验证


Kevin 吴嘉文大约 31 分钟知识笔记Other创业
领导者思考

领导者思考

1. 领导者是什么

领导者是能够激发他人、整合资源并引导团队实现共同目标的人。他们的职责不仅是完成任务,更重要的是塑造团队的整体方向和价值观,包括:

  • 设定方向 :为团队提供清晰的愿景和战略。
  • 影响他人 :通过个人魅力、信任和专业能力影响团队成员的行为。为团队提供一个积极、安全的工作氛围,让每个成员都能贡献自己的独特优势。
  • 创造价值 :不仅关注目标结果,还注重实现过程中的学习、成长和可持续发展。

Kevin 吴嘉文大约 10 分钟知识笔记Other创业
Function Call 整理

在本文中,我们梳理了开源模型 Function Calling 能力的相关信息,包括采用的 chat template,function call 训练方案等。涉及模型 LlaMa 3.1, Mistral Large 2,glm-4-9b-chat,Qwen 2。

Llama 3.1

推荐官方指南:https://llama.meta.com/docs/model-cards-and-prompt-formats/llama3_1/

对话协议(Chat Protocal)

Llama 3.1 中采用了以下 special tokens 来辅助多轮对话和工具的调用。。


Kevin 吴嘉文大约 16 分钟知识笔记AIGCLLM
MOE 系列模型小记

在本文中,我们梳理了近期 (24 年 7 月前)部分 MOE 大模型的关键信息,包括它们的主要特点、亮点以及相关资源链接。涉及模型 Mixtral 8x7B,Mixtral 8x22B,DeepSeek-MoE,Qwen1.5-MoE,DeepSeek-V2

混合专家模型的 Transformer 模型

对于 MOE 的基础,相比 dense model,MOE 的预训练速度更快,推理速度更快,但需要大量的显存。此外,MOE 的训练也有一些独有的 tips,详细的 MOE 混合专家模型基础,推荐参考:

混合专家模型基础(推荐)


Kevin 吴嘉文大约 11 分钟知识笔记AIGCLLM
2
3
4
5
...
17