一名AI算法工程师,热爱生成式模型和具身智能.
Note:MinerU已经重构升级,本笔记可能过时,阅读时请注意。 记录一下MinerU核心代码阅读时的一些笔记。
最近使用paddleocr框架训练一个识别模型,方式是蒸馏svtrv2。训练完成后,想进一步实验一下添加center loss,对识别形近字的提升效果。 第一步就是要导出center,官方文档中只有简单的ocrv2的center导出。没有蒸馏模型,多head的情况下的导出。把自己的解决方案记录下来。
Triton server如何实现模型的加解密,这对私有部署模型,担心模型权重泄露的场景很有价值。本文记录笔者实现这一目标的过程。 先定义一个最简单的加解密方案。加密就是在onnx模型文件的开头添加一个字节00000000,解密就是去掉这个字节。 因为只是想跑通流程,这个加解密方案已经可以满足目的了。
原始文档链接:cmakelist-cheatsheet
记录一下快速使用deepspeed的基本操作。
记录一下安装过程中遇到的问题。
上一篇文章中,分析了bert的tokenizer的细节,本篇继续分析gpt2的tokenizer的细节。 bpe的基本原理可以参考这篇文章:https://huggingface.co/course/chapter6/5?fw=pt
做序列标注时,label和token之间的对应关系至关重要。但是大多数tokenizer都会对原始的字符序列做一定的修改,这对保持token和label之间的对应关系造成了一定的影响。因此,有必要对tokenizer的细节行为有一个清楚的认识。本文以bert tokenzier为例说明里面的细节。