Hi! 我是李文举.

一名AI算法工程师,热爱生成式模型和具身智能.

文本tokenize方法总结


如何将文本拆分成一个个的token,简要介绍几种主流的方法。 https://huggingface.co/docs/transformers/tokenizer_summary

对一个预训练模型来说,使用它时,只有用和训练时相同的tokenize方法时,模型的表现才能正常。

阅读全文 »


M1 mac 安装tensorflow


记录一下,后续可能还要使用。

阅读全文 »


pytorch中shape和size, expand和repeat,view和reshape,permute和transpose分析


这四对相似又不完全一样的api的简要解析。

阅读全文 »


最近关于选择工作的思考


最近换工作,从开始各种面试,是公司在选择我,到最后拿到几个offer,开始我选择公司,记录一下我选择公司的一些思考。

阅读全文 »


苏剑林CoSENT损失函数源码解析


文章地址: CoSENT(一):比Sentence-BERT更有效的句向量方案

loss公式:

\[log\bigg (1+ \displaystyle \sum_{sim(i,j)>sim(k,l)}\exp^{\lambda(cos(u_k,u_l)-cos(u_i,u_j))}\bigg)\]

阅读全文 »


苏剑林多标签softmax分类loss源码解析


看了一下苏神这篇博客:将“softmax+交叉熵”推广到多标签分类问题。从单标签分类很自然地顺推到多标签。下面记录阅读其loss实现源码理解,以备忘查。

loss公式:

\[log\left(1+\sum_{i\in\Omega_{neg}} e^{s_i}\right) + log\left(1+\sum_{j\in\Omega_{pos}} e^{-s_j}\right)\]

阅读全文 »


bert推理优化之路


之前部署上线了学员课程评论情感分析模型,随着业务发展,推理性能逐渐成为瓶颈。所以准备转到GPU进行部署,彻底解决这个瓶颈问题。 以下是当初进行推理优化时不同技术选型的测试过程。

1、cpu推理性能测量

目前是使用onnxruntime的cpu版本部署的。经过测量,性能如下:

batch size 为1时,预测耗时为90ms左右。

batch size 为10时,预测耗时为600ms左右。

这就是优化的起点了。

阅读全文 »


onnxruntime使用gpu推理


之前踩过的一个坑,有小伙伴问,索性记录下来,免得忘记。

1、gpu版本的onnxruntime

首先要强调的是,有两个版本的onnxruntime,一个叫onnxruntime,只能使用cpu推理,另一个叫onnxruntime-gpu,既可以使用gpu,也可以使用cpu。

如果自己安装的是onnxruntime,需要卸载后安装gpu版本。

pip uninstall onnxruntime
pip install onnxruntime-gpu==1.9

阅读全文 »


相关链接