工作总结
发布时间:2026-04-132026年银行借调工作总结。
借调到期回来两个多月,手头攒了几件事,一直想写个总结。不是给领导看的那种,是给自己捋一捋——在总行风险管理部待了十三个月,到底学会了什么,又踩了哪些坑。
先说最狼狈的一件事。借调第三周,华东分行一个电话打到总行,客户经理在电话里嗓门很大:“你们那个估值系统怎么回事?杭州有个客户,房子同小区刚成交一套单价三万二,你们系统给估两万五,客户拿着挂牌截图要投诉!”电话转到我这儿时,我第一反应是查模型输出日志。调出那笔贷款的押品记录——杭州下沙某楼盘,竣工六年,系统估值24500/平。再拉同小区近三个月成交数据:四套,均价31800。差了将近三成。这已经不是波动,是事故。
我把自己锁在工位上开始拆。先看原始特征:楼盘、楼层、朝向、面积录入都没问题。再看模型中间输出:特征向量里“区域均价”这个变量,取值只有18900。不对,下沙整体均价没这么低。追到数据源——发现模型调用的区域均价表,版本号是去年第四季度的,今年一季度更新包因为ETL任务失败没报错,一直用的老数据。杭州那一片去年底到今年初正好有一轮补涨,老数据滞后了整整四个月。
但问题没完。就算区域均价低了,模型还有周边可比案例的加权修正,按理说不该差这么多。继续往下挖,发现可比案例的筛选逻辑里有条隐藏规则:只取同小区过去六个月的成交记录,且剔除最高和最低各10%。下沙那个楼盘过去六个月一共就三笔成交,剔除极值后只剩一笔,权重被压得很低,区域均价占了主导。两条bug叠加,估值直接崩了。
我把分析结果写了两页纸,附上修复方案:更新区域均价表,同时把可比案例的窗口从六个月改成三个月,成交稀疏的小区改用相邻楼盘数据补全。模型组的老同事看了说:“你这个方案得跑回测,不然谁敢上线?”我连夜写了回测脚本,用过去两年的历史数据跑了一遍,修复后的估值误差从原来的22.7%降到了6.3%。第二天上午开会,我把回测的分布图投在屏幕上,指着那个长尾说:“旧模型有12%的样本误差超20%,新模型只有2.1%。”业务那头点了头,两周后补丁上线。
这事给我的教训很直:别信数据链路的每一个环节都是好的。ETL报没报错不等于数据对。后来我自己写了个小脚本,每天凌晨跑一遍关键数据源的版本校验和时效性检查,发现有异常就给自己发短信。这在总行算“野路子”,但我管不了那么多——管用就行。
再说第二个事,比第一个更磨人。借调到第四个月,领导让我牵头优化全行押品重估的流程。原流程的问题我说给你听:每笔贷款到期前90天,客户经理手动触发重估,填表、上传凭证、等审批。结果呢?我拉了一年的数据,全行应重估笔数18.7万笔,实际完成11.3万笔,完成率刚过六成。没完成的那些里,逾期30天以上的占比是完成组的4.7倍。道理很简单:客户经理忙不过来,越是快逾期的客户,重估越容易被拖到最后一刻,恶性循环。
我提的方案不复杂:用系统自动跑批,每个月对全量存量押品做一次估值,只把波动超阈值(比如下跌超8%)的推送给人复核。方案写出来,IT说排期要三个月,合规说要改制度,业务说万一跑错谁担责。我当时的想法是:等你们吵完,黄花菜都凉了。
于是我用周末两天写了个Python脚本,调用行里的估值API和数据仓库,先在自己电脑上跑通。然后找浙江分行的老同事帮忙,选了500笔正常类和关注类贷款做试点。第一次跑出来的结果惨不忍睹——有14笔估值波动超20%,复核后发现其中9笔是数据录入错误,比如房产证号里的数字0录成了字母O。分行的人看了直摇头:“你们总行数据质量就这水平?”我脸上挂不住,连夜加了数据清洗的规则,把常见录入错误做了模糊匹配。第二轮跑完,误报率从11.2%降到3.4%,漏报率控制在2.5%以内。
试点汇报那天,我把两轮对比的数据贴在PPT里。分行行长看完,拍了桌子:“以前这种错漏要等客户经理手工查,三个月不一定发现。现在一个月就知道了?那还等什么,推啊。”有了分行的实战数据,IT和合规的态度软了。我趁热打铁,把脚本改写成正式的技术方案,附上制度修订草案。三个月后系统上线,现在全行重估覆盖率稳定在97.3%,平均响应周期从22天压到4天。那剩下的2.7%覆盖不到的,我也摸清了——主要是已核销资产和产权纠纷类押品,这两类确实不适合自动跑,得保留人工通道。
说句实话,这事让我想明白一个道理:在银行干活的,别老想着等流程批下来再动。你先拿数据跑个试点,把结果摔在桌面上,比什么方案都硬。
不过我也栽过大跟头。借调期间有一次做模型监控月报,我习惯性地用了箱线图来展示各分行估值波动分布,还沾沾自喜觉得挺专业。结果业务团队的老大姐直接说:“你这图我看不懂,你就告诉我哪个分行有问题,问题多大。”我当时有点不服气,觉得是你水平不行。后来冷静下来一想,人家说得对——我做的报表是给人看的,不是给算法看的。后来我把所有报表都改了:第一页只放三样东西,哪个指标超限、超了多少、建议谁去处理。细节数据放附录,谁爱看谁看。
还有一次更丢人。我写了个脚本自动抓取外部房价指数,用来做模型验证。跑了两个月都很稳,突然有一天,模型团队的老王跑过来问:“你那个指数最近两周怎么不动了?”我查了一下,原来是对方网站改了接口,我的脚本一直在抓旧页面,数据实际已经停更了十四天。整整两周,模型验证用的都是过期数据。那天晚上我加班到凌晨两点,把脚本改成带校验的版本——每次抓取后对比相邻两期数据,如果完全一样就报警。第二天晨会我主动说了这事,领导没批评,但那个眼神我记得很清楚。后来我做任何自动化,都会加至少两道校验:数据新鲜度校验和逻辑一致性校验。
借调结束回到分行信贷管理部,我发现视角确实不一样了。以前看总行下发的模型参数调整通知,只觉得“又来活了”。现在我会去翻调整的依据是什么,回测数据支不支持,有没有考虑区域差异。回来第三周,我发现我们分行有一批商铺抵押贷款的估值,系统给出的数字明显低于周边成交价。换作以前,我会直接给总行发邮件问。这次我自己拉数据、跑了个小回测,发现原因是模型里“商业物业类型”这个分类,把我们这批“社区底商”归到了“一般商铺”里,而社区底商的空置率模型用了全区均值,但我们那个区最近新开了个购物中心,底商空置率实际比均值低8个百分点。我把分析写成两页纸,附上修正建议,发给了总行模型组。对方回复:“收到,下月重训练时调整。”搁以前,这种反馈起码要来回扯皮两三周。
说这些不是显摆自己多厉害。借调这一年,最大的体会是:数据分析和业务落地之间隔着两层窗户纸。第一层是信任——你得用具体案例证明你的分析靠谱,而不是拿方法论压人。第二层是成本——方案再好,如果执行起来要让人家多干两小时活,大概率没人理你。你得把80%的力气花在“怎么让人省事”上,剩下的20%才是技术。
走之前,我把借调期间写的所有脚本、校验规则、报表模板打了个包,留给了接手的同事。里面有个README,第一行写的是:“别信数据,信校验。别信模型,信回测。别信流程,信试点。”这话糙,但管用。
-
更多精彩的工作总结,欢迎继续浏览:工作总结