flash-attn-2.8.3
FlashAttention 是一种革命性的算法,它通过巧妙地利用GPU内存层次结构,极大地加速了Transformer模型中的自注意力(Self-Attention)计算,并显著减少了其内存占用,使得训练和使用超长上下文的大语言模型(如GPT、Llama等)成为可能。
FlashAttention 是一种革命性的算法,它通过巧妙地利用GPU内存层次结构,极大地加速了Transformer模型中的自注意力(Self-Attention)计算,并显著减少了其内存占用,使得训练和使用超长上下文的大语言模型(如GPT、Llama等)成为可能。
自编译银河麒麟linux 4.19.90-17.ky10.aarch64 arm版中下载copy到/usr/bin下即可使用
openeuler_2203_LTS_SP1_x86_64 redis安装包
selenium自动化使用的107.0.5304.122版本chrome及对应的chromedriver
openeuler_2203_LTS_SP1_x86_64的postgres-14安装包及安装shell
system_stats 是由 EnterpriseDB 开源的一个 Postgresql 扩展插件,提供了数据库服务器 cpu