pcacc 4 сар өмнө
parent
commit
fdde348829

+ 30 - 6
plans/0327.md

@@ -5,6 +5,26 @@
 - 上半年请了一段长假,混个创新点,保一下上半年的绩效吧。一季度的很难说是B1还是B2
 - 如果不想办法让自己处于主动的地位,那难受的只是自己
 
+## 当前需要做的工作:
+- AI研究
+- 立新项目(清明节回来再弄)
+- 研究小户型的爬行区安排,以及购物
+- 插件部分功能,有点奇怪,需要添加一个忽略
+- 姑娘的学校安排、跳绳安排
+- 研究一下swanlab, 如何存储训练的中间过程
+- 房子出租,最好在5月初敲定
+  - 需要了解周边租金价格
+  - 自己租、找中介租、小区租、停车位安排
+- 需要清楚知道,姑娘学校的情况,以及后续的安排。
+  - https://www.sz.gov.cn/school/ns/jnygz/nswgyxxwhxx/content/post_9480702.html
+  - 上课下课时间
+  - 中午学校安排情况
+  - 下午放学的安排情况
+  - 一般双职工家长如何处理
+  - 接送路线的安排
+
+
+
 ## 当前
 - 更换浏览器预研及后续事情
 - AI power
@@ -39,28 +59,32 @@
 ## 家里
 - 缴费
 - 购物清单
-  - 便携温奶器
   - 地毯
   - 新的边几
   - 找人丢掉旧边几
 - 购买新车子
+  - 混动汽车在保养、保险费用上都没有什么优势。我们家长途很少,而且目前新能源很多在600km以上。所以没必要非要混动。
+  - 目前没有那么急
+- 幼升小
+  - 深圳户籍-南山区户籍 26分
+  - 学区内购房D类 房产1年以下持有产权51%以上 34分
+  - 社保积分 深圳户籍 10分
+  - 户籍时长 7.5分
+  - 社保时长加分 11.5分
+  - 总分 89
+  - 政策时间 每年5月底6月初
 - 4月17日,预约还款:还款日17:00前在贷款银行卡里存够钱,自动扣款.(已经提取)扣款时间大约还款日当日20:00~20:30.
 - 需要预约公积金提取业务
 - 重要事情:了解入学情况和资料
 - 重要事情:跳绳教学的步骤,如果在家里练习,需要购买垫子
 - 重要事情:地毯和新的边几、床上的围栏
-~~- 重新补充一下个税抵扣信息~~
 - 脚本还需要的工作:
   - 检查和自动开罩,每轮次检查一次就行,最多也就断20min
   - 游戏更新导致的问题:
-    - 需重新截图,是否有比较好的方式,能够接受一定程度上的变形?
     - 是否存在可以写一个测试案例,自动执行,被给出运行报告
   - 自动打熊
     - (1)可以做文字的识别,提取出打熊的时间。在重启游戏前,校验一下对应的时间。如果在打熊时间在3000内,则停止重启。时间在<400,则自动进入打熊模式。(可能盟内会改时间,但应该没关系)
     - (2)主动配置一个时间,在这个时间自动打熊模式。
-  - 协同打吉娜这个功能很值得研究
-    - 小号,召唤一个吉娜,给共享数据一个坐标;如果坐标不为空,则不作任何操作
-    - 大号,基于坐标攻击吉娜,然后置为空
   - 治疗功能,输入一个个数,然后自动治疗
   - 尽量买东西只在白天的时候买,不要影响晚上休息
   - 不行就氪服困难,不要被游戏玩

+ 119 - 0
plans/0411.md

@@ -0,0 +1,119 @@
+## 注意
+- 需要足够的休息
+- 突然觉得IT人员间的交流话术实际上也挺重要的:就是说话不能说满了,留有余地。不要揽活,说要再研究研究;摆出我们这边的困难,这样也是告诉别人思考很深很全面。
+- 多看别人的设计,多总结,不要自己钻进去瞎琢磨
+- 上半年请了一段长假,混个创新点,保一下上半年的绩效吧。一季度的很难说是B1还是B2
+- 如果不想办法让自己处于主动的地位,那难受的只是自己
+- 其实我状态还行,就是很难进入工作状态。感觉是之前混沌的时间太长了
+
+## 当前需要做的工作:
+- AI研究
+- 立新项目(清明节回来再弄)
+- 研究小户型的爬行区安排,以及购物
+- 插件部分功能,有点奇怪,需要添加一个忽略
+- 姑娘的学校安排、跳绳安排
+- 研究一下swanlab, 如何存储训练的中间过程
+- 房子出租,最好在5月初敲定
+  - 需要了解周边租金价格
+  - 自己租、找中介租、小区租、停车位安排
+- 需要清楚知道,姑娘学校的情况,以及后续的安排。
+  - https://www.sz.gov.cn/school/ns/jnygz/nswgyxxwhxx/content/post_9480702.html
+  - 上课下课时间
+  - 中午学校安排情况
+  - 下午放学的安排情况
+  - 一般双职工家长如何处理
+  - 接送路线的安排
+
+
+
+## 当前
+- 更换浏览器预研及后续事情
+- AI power
+- 预估很快就要提出AI的专题了,要月报
+
+## 工作
+- **写专利**, 今年的专利早点弄吧
+- 创新奖,今年的
+- 到年底的项目计划
+  - 1月的是浏览器更换为360浏览器+chromium extensions
+  - 统一UOS/WIN的浏览器启动关闭方式。。当前WIN使用的是job绑定关系,浏览器随VTM关闭而自动关闭;UOS为搜索进程的方式,对于多个页面的情况下,很难区分出不同的页面;需要统一的页面管理方式。
+  - **可以写一下悬浮插件的实现,看用cef能否直接实现(可分为两期来做),目前看windows以现在浏览器比较困难,需要跟蔡总商量**
+  - 优化event和实体绑定关系的功能,变成非强关联
+  - vtm err list变成可使用缓存
+- 部署一下chromium的日志解析功能
+- **一个重要的事情,今年得过一下升职的课程**
+- 突然发现一个事情,事实上已经被封死了大部分可做的事情,比如:
+  - 专利已经没法写了,已经有人写《一种客户端应用程序跨平台解决方案》
+  - 创新奖,就目前而言,我这边起码是没什么可写的
+  - 开放API,在没有别的的情况下,这个实际也没什么用。
+  - AI专题,看起来很难进行下去。现在也没有什么项目
+  - 所以,至少室内或者组内的重心不在我这里。不需要完成国产化、XXX类指标的工作了。。实际上的边缘化。。
+  - 我最好能自行发掘一下,可创新、可写专利的内容。
+    - 做一个AI场景的东西,可大可小,研究性质的;对外,可完成团队的AI需求,另可以写创新奖、专利
+    - 做一个优化性能的痛点问题的改进,最好使用比较高端的技术。
+    - 使用一些当前VTM中比较少用的技术,以实现好用的功能
+  - 可能的方向:
+    - 端侧部署方式
+- 认真阅读AI的源码,探索实现
+  - 针对VTM,进行预言和AI的整合
+
+## 家里
+- 缴费
+- 购物清单
+  - 地毯
+  - 新的边几
+  - 找人丢掉旧边几
+- 购买新车子
+  - 混动汽车在保养、保险费用上都没有什么优势。我们家长途很少,而且目前新能源很多在600km以上。所以没必要非要混动。
+  - 目前没有那么急
+- 幼升小
+  - 深圳户籍-南山区户籍 26分
+  - 学区内购房D类 房产1年以下持有产权51%以上 34分
+  - 社保积分 深圳户籍 10分
+  - 户籍时长 7.5分
+  - 社保时长加分 11.5分
+  - 总分 89
+  - 政策时间 每年5月底6月初
+- 4月17日,预约还款:还款日17:00前在贷款银行卡里存够钱,自动扣款.(已经提取)扣款时间大约还款日当日20:00~20:30.
+- 需要预约公积金提取业务
+- 重要事情:了解入学情况和资料
+- 重要事情:跳绳教学的步骤,如果在家里练习,需要购买垫子
+- 重要事情:地毯和新的边几、床上的围栏
+- 脚本还需要的工作:
+  - 检查和自动开罩,每轮次检查一次就行,最多也就断20min
+  - 游戏更新导致的问题:
+    - 是否存在可以写一个测试案例,自动执行,被给出运行报告
+  - 自动打熊
+    - (1)可以做文字的识别,提取出打熊的时间。在重启游戏前,校验一下对应的时间。如果在打熊时间在3000内,则停止重启。时间在<400,则自动进入打熊模式。(可能盟内会改时间,但应该没关系)
+    - (2)主动配置一个时间,在这个时间自动打熊模式。
+  - 治疗功能,输入一个个数,然后自动治疗
+  - 尽量买东西只在白天的时候买,不要影响晚上休息
+  - 不行就氪服困难,不要被游戏玩
+## 指标要求
+- 每月功能点>120, 1.3 < 人均项目数 > 1.6,对于我个人而言,最好是实时储备两个左右的特性
+- 项目优先级而言: 云转型>AI项目>流量项目
+- 如果太困难的无法集中精神,不妨降低一下要求,如python学习,算法学习,专利学习
+
+## 金点子内容
+
+提案二:网点厅堂服务助理,提案启发人:廖桂发、马雄
+
+提案内容:
+
+应用场景:围绕网店通系统打通可视柜台、展业PAD等,建立厅堂的智能化服务助手,利用智能化技术覆盖到店前、中、后业务办理及营销服务,提升用户到店体验及网点经营效果。
+1.对到店客户,形成数字化+智能化的服务模式,对客户进行意图预测和识别,并在可视柜台等渠道进行任务推荐。
+2.对客户偏好、历史服务、投诉、排队等情况进行分析,形成个性化的服务助理。
+3.提供大堂服务话术,针对一些疑难场景,对大堂提供相应的处理和应对。
+4.对离店客户服务,提供营销话术和话术服务回检。
+5.在面客渠道(网点通)和具体业务办理渠道(可视柜台、展业PAD)形成客户服务的智能服务链条。
+解决痛点:
+1.解决网点服务和办理渠道间断点问题,尤其形成了客户针对不同人员需要重复诉求的情况。
+2.优化客户业务办理,解决客户不熟悉设备菜单,不知如何操作选择,需要大堂服务专员引导。
+3.解决大堂对业务规则、操作、功能、价目等不熟悉的情况。
+价值点:
+1.提升服务模式,通过智能化降低面客沟通成本,提高服务效率,还可形成数据记录并进一步提升智能化水平。
+2.打通网点服务渠道和经营渠道的断点,业务场景智能化,让客户感受清晰、方便的办理体验,进一步提升客户友好性。
+3.建立大堂服务和营销知识库,针对现场服务和离店服务提供推荐话术和业务规则检索。
+发展前景:
+1.建立智能化的厅堂服务助理,进一步赋能厅堂人员,拉平网点服务能力差距。
+2.通过个性化的服务助理,对客户形成差异化的服务,提升客户到店体验。

+ 216 - 0
work/人工智能_我的总结.md

@@ -0,0 +1,216 @@
+### 1、线性神经网络
+
+线性神经网络是最简单的神经网络形式,通常指 **单层感知机(Perceptron)** 或 **线性回归模型**,其核心特点是 仅包含线性激活函数(或无激活函数)。
+
+#### (1)解决的问题
+
+线性神经网络主要用于解决 **线性可分问题**~,即数据可以通过一个 超平面(直线/平面) 完全分开。典型应用包括:
+
+**线性回归(Linear Regression)**
+预测连续值(如房价预测)。
+目标:最小化预测值与真实值的均方误差(MSE)。
+**二分类问题(Logistic Regression)**
+使用 Sigmoid 激活函数(虽然非线性,但决策边界仍是线性的)。
+目标:分类(如垃圾邮件检测)。
+**模式识别(如单层感知机)**
+1958年由罗森布拉特(Rosenblatt)提出,用于简单分类任务。
+
+#### (2)局限性
+
+**无法解决非线性问题**
+问题:如果数据 **非线性可分(如异或问题 XOR)**,线性神经网络无法正确分类。
+例如:XOR 问题(输入 (0,0) 和 (1,1) 属于类别 A,(0,1) 和 (1,0) 属于类别 B)。
+线性模型无法找到一条直线完美分割这两类数据。
+原因:线性变换(y = Wx + b)只能拟合直线/平面,无法拟合曲线。
+**表达能力有限**
+即使数据近似线性可分,线性模型可能 欠拟合(无法捕捉复杂模式)。
+例如:图像识别、自然语言处理等任务需要 非线性特征组合,线性模型无法胜任。
+**无法自动学习特征**
+传统线性模型(如线性回归)依赖 人工特征工程,而**现代深度学习(如CNN、Transformer)可以自动提取特征。**
+**梯度消失/爆炸(在多层线性网络中)**
+如果堆叠多个线性层(如 y = W₃(W₂(W₁x + b₁) + b₂) + b₃),整体仍然是线性变换(y = W'x + b')。
+这意味着 增加层数不会增强模型能力,反而可能导致数值不稳定(梯度消失或爆炸)。
+
+#### (3)如何改进?
+
+由于线性神经网络的局限性,后续发展出 非线性神经网络,主要改进方式包括:
+
+**引入非线性激活函数(如ReLU、Sigmoid、Tanh)→ 使网络能拟合非线性关系。
+增加隐藏层(多层感知机,MLP)→ 提高模型表达能力。
+使用卷积(CNN)、循环(RNN)、注意力(Transformer)等结构→ 适应特定任务(如图像、序列数据)。**
+
+### 多层感知机(MLP)- Multi-Layer Perceptron vs. 线性神经网络
+
+核心区别:MLP 引入了 **非线性激活函数** 和 **隐藏层**,目的是解决线性神经网络无法处理的 **非线性可分问题(如异或问题)和 复杂模式学习。**
+
+#### MLP 的关键技术改进
+
+- **(1)引入隐藏层(Hidden Layers)**
+  结构:**输入层 → 隐藏层(可多层) → 输出层。**
+  作用:
+  通过多层变换组合特征,逐步提取更高阶的抽象特征。
+  例如:从像素→边缘→纹理→物体部件→完整物体(在图像任务中)。
+- **(2)使用非线性激活函数**
+  常见激活函数:
+  Sigmoid:早期使用,输出范围(0,1),适合概率建模。
+  Tanh:输出范围(-1,1),梯度比Sigmoid更稳定。
+  ReLU(Rectified Linear Unit):现代主流,解决梯度消失问题,计算高效。
+  作用:
+  打破线性变换的局限性(y = Wx + b → y = f(Wx + b))。
+  使网络能够拟合任意复杂度的函数(理论上,单隐藏层MLP可逼近任何连续函数,参见 **通用近似定理**)。
+
+| 特性               | 单隐藏层MLP                    | 深层网络(如CNN、ResNet)       |
+| ------------------ | ------------------------------ | ------------------------------- |
+| **理论能力** | 可逼近任何连续函数(需足够宽) | 可逼近任何连续函数(需足够深)  |
+| **参数效率** | 低效(可能需要极多神经元)     | 高效(分层抽象减少参数量)      |
+| **实际用途** | 理论证明,简单任务             | 主流方案(图像、NLP等复杂任务) |
+
+
+
+- **(3)反向传播算法(Backpropagation)**
+作用:
+通过链式法则计算梯度,高效更新多层网络的权重。
+**解决线性神经网络无法训练多层结构的问题。**
+
+
+## **1. 前向传播(Forward Propagation)**
+
+### **定义**
+
+数据从输入层 → 隐藏层 → 输出层逐层计算,最终得到预测值。
+
+### **关键步骤**
+
+1. **输入数据**:
+   输入特征 **x**(例如一张图片的像素值)。
+2. **线性变换**:
+   每一层的计算为 **z**=**w**⋅**x**+**b**(权重 **w** 和偏置 **b**)。
+3. **非线性激活**:
+   通过激活函数(如ReLU、Sigmoid)引入非线性:**a**=**σ**(**z**)。
+4. **输出预测**:
+   最后一层输出 **y**^(例如分类概率)。
+
+
+## **2. 反向传播(Backward Propagation)**
+
+### **定义**
+
+根据预测误差(损失函数)从输出层 → 隐藏层 → 输入层反向传播,计算梯度并更新权重。
+
+### **关键步骤**
+
+1. **计算损失**:
+   比较预测值 **y**^ 和真实值 **y**,例如用交叉熵损失 **L**。
+2. **链式求导**:
+   从输出层开始,逐层计算损失对权重 **w** 和偏置 **b** 的梯度(导数):
+   * 输出层梯度:**∂**W**[**2**]**∂**L**
+   * 隐藏层梯度:**∂**W**[**1**]**∂**L**
+3. **更新参数**:
+   用梯度下降调整权重:**W**:=**W**−**α**∂**W**∂**L**(**α** 是学习率)
+
+
+* **前向传播**是“预测过程”,**反向传播**是“学习过程”。
+* 两者结合,通过多次迭代(前向+反向)逐步优化模型参数。
+* 反向传播的核心是**链式法则**,它使得深度学习可以高效训练。
+
+
+### 卷积神经网络(CNN)的核心技术与解决问题
+
+卷积神经网络(Convolutional Neural Network, CNN)是深度学习中针对 **网格状数据(如图像、视频、音频、文本)设计的专用架构**。其核心技术围绕 **局部感知**、**参数共享** 和 **层次化特征提取**,主要解决以下问题:
+(1) **卷积运算(Convolution)**
+技术本质:
+使用 卷积核(滤波器) 在输入数据上**滑动计算局部特征(如边缘、纹理)**。
+
+解决的问题:
+**局部相关性**:图像中相邻像素关系紧密(如边缘、角点),卷积核捕捉局部模式。
+**平移不变性**:同一物体在图像不同位置仍能被识别(如猫在左上角或右下角)。
+**(2) 池化(Pooling)**
+技术本质:
+对局部区域降采样(如最大池化、平均池化),减少数据维度。
+例:**2×2最大池化 → 取窗口内最大值,保留显著特征。**
+解决的问题:
+平移鲁棒性:轻微位移不影响特征提取。
+降低计算量:减少后续层参数,防止过拟合。
+**(3) 层次化特征组合**
+技术本质:
+浅层提取低级特征(边缘、颜色)→ 中层组合为部件(眼睛、轮子)→ 深层识别完整物体(人脸、汽车)。
+解决的问题:
+特征抽象化:模拟人脑视觉分层处理机制(Hubel & Wiesel理论)。
+**(4) 参数共享(Weight Sharing)**
+技术本质:
+同一卷积核在整张图像上滑动复用,大幅减少参数量(与全连接层对比)。
+解决的问题:
+高维数据参数爆炸:例如,1000×1000像素图像全连接需10⁶权重,而CNN仅需少量卷积核。
+
+| 模型                 | 核心技术贡献                    | 解决的问题                           |
+| -------------------- | ------------------------------- | ------------------------------------ |
+| LeNet-5 (1998)       | 首个成功CNN(卷积+池化+全连接) | 手写数字识别(MNIST)                |
+| AlexNet (2012)       | ReLU+Dropout+多GPU训练          | ImageNet竞赛突破(Top-5错误率15.3%) |
+| VGG (2014)           | 深层小卷积核(3×3堆叠)        | 证明深度对性能的关键影响             |
+|  ResNet (2015)       | 残差连接(解决梯度消失)        | 训练超深层网络(如152层)            |
+|  DenseNet (2017)     | 密集连接(特征重用)            | 解决梯度消失,提升信息流效率         |
+|  EfficientNet (2019) | 复合缩放(深度/宽度/分辨率)    | 提轻量化与高效计算                   |
+
+### 循环神经网络(RNN)的核心目标与解决问题
+
+循环神经网络(Recurrent Neural Network, RNN) 是专门设计用于处理 序列数据 的神经网络架构,其核心创新是引入 **时间维度上的状态传递**,主要解决以下问题:
+
+#### **1. RNN 解决的核心问题**
+
+(1) **序列数据的动态建模**
+问题背景:
+传统神经网络(如MLP、CNN)假设输入数据是 独立同分布(i.i.d) 的,无法处理序列中前后元素的依赖关系。
+例如:
+自然语言中,句子含义依赖单词顺序(“猫追狗” ≠ “狗追猫”)。
+股票价格预测中,当前价格受历史价格影响。
+RNN的解决方案:
+通过 **隐藏状态(Hidden State) 记忆历史信息,当前输出依赖当前输入和前一时刻的状态。**
+(2) **变长序列输入/输出**
+问题背景:
+固定结构的网络(如CNN)要求输入/输出尺寸固定,但序列长度可变(如语音、文本)。
+例如:翻译任务中,输入英语句子和输出中文句子长度可能不同。
+RNN的解决方案:
+通过循环结构逐步处理序列,**支持任意长度的输入和输出(需结合编码器-解码器框架)。**
+(3) **时间依赖性建模**
+问题背景:
+传统方法(如马尔可夫模型)只能建模短程依赖,难以捕捉长距离关系。
+例如:句子“The cat, which ate the fish, was happy”中,“was”需依赖远距离主语“cat”。
+RNN的解决方案:
+理论上,**RNN可以通过隐藏状态传递任意长度的历史信息**(但实际存在梯度消失问题,后续由LSTM/GRU改进)。
+
+以下是 RNN、CNN、Transformer 的完整名称、核心特点及对比总结:
+
+**1. RNN(Recurrent Neural Network,循环神经网络)**
+核心特点:
+通过 循环连接(Recurrent Connection) 处理序列数据,隐藏状态传递历史信息。
+擅长建模时间依赖(如文本、时间序列),但存在梯度消失/爆炸问题。
+典型应用:
+**早期机器翻译、语音识别、股票预测(现多被Transformer取代)。**
+**2. CNN(Convolutional Neural Network,卷积神经网络)**
+核心特点:
+通过 卷积核(Convolutional Kernel) 提取局部特征,共享参数减少计算量。
+擅长捕捉空间结构(如图像、网格数据),但对长序列建模能力弱。
+典型应用:
+**图像分类(ResNet)、目标检测(YOLO)、医学影像分析。**
+**3. Transformer**
+全称:无缩写,原论文标题为《Attention Is All You Need》(2017)。
+核心特点:
+基于 **自注意力机制(Self-Attention)**,并行处理序列,直接建模全局依赖。
+解决了RNN的长程依赖和并行化问题,成为NLP领域主流架构。
+典型应用:
+**大语言模型(GPT、BERT)、机器翻译、文本生成。**
+三者的关键对比
+
+| 特性         | RNN                     | CNN                   | Transformer         |
+| ------------ | ----------------------- | --------------------- | ------------------- |
+| 核心机制     | 循环连接 + 隐藏状态     | 卷积核 + 池化         | 自注意力 + 位置编码 |
+| 并行化能力   | ❌ 低(顺序计算)       | ✅ 高(卷积并行)     | ✅ 极高(矩阵运算) |
+| 长程依赖处理 | ❌ 弱(需LSTM/GRU改进) | ❌ 弱(受限于感受野) | 强(任意距离建模)  |
+| 典型输入     | 时间序列、文本          | 图像、视频            | 文本、跨模态数据    |
+| 代表模型     | LSTM、GRU               | ResNet、VGG           | GPT、BERT、ViT      |
+
+总结
+**RNN:序列建模的早期方案,适合短序列任务,但效率低。
+CNN:空间特征提取王者,但对时序依赖不敏感。
+Transformer:当前AI领域霸主,兼顾全局依赖和并行化,但计算资源需求高。
+根据任务需求选择架构:图像处理优先CNN,长文本/跨模态用Transformer,轻量化场景可考虑RNN变体(如LSTM)。**