Hi! 我是李文举.

一名AI算法工程师,热爱生成式模型和具身智能.

M1 mac 安装tensorflow

记录一下,后续可能还要使用。

阅读全文 »

torch中易混的tensor变形操作

四对相似又不完全一样的api的简要解析。

阅读全文 »

最近关于选择工作的思考

最近换工作,从开始各种面试,是公司在选择我,到最后拿到几个offer,开始我选择公司,记录一下我选择公司的一些思考。

阅读全文 »

苏剑林CoSENT损失函数源码解析

文章地址: CoSENT(一):比Sentence-BERT更有效的句向量方案

loss公式:

\[log\bigg (1+ \displaystyle \sum_{sim(i,j)>sim(k,l)}\exp^{\lambda(cos(u_k,u_l)-cos(u_i,u_j))}\bigg)\]

阅读全文 »

苏剑林多标签softmax分类loss源码解析

看了一下苏神这篇博客:将“softmax+交叉熵”推广到多标签分类问题。从单标签分类很自然地顺推到多标签。下面记录阅读其loss实现源码理解,以备忘查。

loss公式:

\[log\left(1+\sum_{i\in\Omega_{neg}} e^{s_i}\right) + log\left(1+\sum_{j\in\Omega_{pos}} e^{-s_j}\right)\]

阅读全文 »

bert推理优化之路

之前部署上线了学员课程评论情感分析模型,随着业务发展,推理性能逐渐成为瓶颈。所以准备转到GPU进行部署,彻底解决这个瓶颈问题。 以下是当初进行推理优化时不同技术选型的测试过程。

1、cpu推理性能测量

目前是使用onnxruntime的cpu版本部署的。经过测量,性能如下:

batch size 为1时,预测耗时为90ms左右。

batch size 为10时,预测耗时为600ms左右。

这就是优化的起点了。

阅读全文 »

onnxruntime使用gpu推理

之前踩过的一个坑,有小伙伴问,索性记录下来,免得忘记。

1、gpu版本的onnxruntime

首先要强调的是,有两个版本的onnxruntime,一个叫onnxruntime,只能使用cpu推理,另一个叫onnxruntime-gpu,既可以使用gpu,也可以使用cpu。

如果自己安装的是onnxruntime,需要卸载后安装gpu版本。

pip uninstall onnxruntime
pip install onnxruntime-gpu==1.9

阅读全文 »

Transformer优秀文章汇总

1、位置编码相关

苏剑林两篇文章: 层次分解位置编码,让BERT可以处理超长文本

让研究人员绞尽脑汁的Transformer位置编码

阅读全文 »