当前位置: 首页 > news >正文

esm使用-包括esmfold和embedding

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 零、安装
  • 一、esmfold的使用
  • 二、esm2的embedding
    • 1.模型加载与准备
    • 2.读入数据
    • 3.提取残基级表示
    • 4.生成序列级表示(均值池化)
    • 5.可视化自注意力接触图
    • 6.潜在问题与改进建议
    • 7.小结
  • 总结


前言

主要参考的是https://github.com/facebookresearch/esm/tree/main

零、安装

先拉取上面的仓库,然后cd到当前路径下开始装环境:

conda env create -f environment.yml
conda activate emsfold
pip install "fair-esm[esmfold]"
pip install 'dllogger @ git+https://github.com/NVIDIA/dllogger.git'
pip install 'openfold @ git+https://github.com/aqlaboratory/openfold.git@4b41059694619831a7db195b7e0988fc4ff3a307'

有很多预训练模型需要科学上网,下载下来再传到安装路径
比如esm2_t33_650M_UR50D.pt
https://dl.fbaipublicfiles.com/fair-esm/models/esm2_t33_650M_UR50D.pt
打开上面的网址下好之后,上传到当前路径:

mv esm2_t33_650M_UR50D.pt  ~/.cache/torch/hub/checkpoints/

一、esmfold的使用

测试脚本:

import torch
import esmmodel = esm.pretrained.esmfold_v1()
model = model.eval().cuda()# Optionally, uncomment to set a chunk size for axial attention. This can help reduce memory.
# Lower sizes will have lower memory requirements at the cost of increased speed.
# model.set_chunk_size(128)sequence = "MKTVRQERLKSIVRILERSKEPVSGAQLAEELSVSRQVIVQDIAYLRSLGYNIVATPRGYVLAGG"
# Multimer prediction can be done with chains separated by ':'with torch

相关文章:

  • 阿里开源图生动画模型AnimateAnyone2
  • auto(x) decay copy
  • await和async
  • 2025年保安员证考试题库及答案
  • 【quantity】4 Duration 类型及其实现(time.rs)
  • C22-作业练习之最大公约数与最小公倍数
  • 如何开发动态贴纸功能?一体化美颜SDK的技术实现思路与实战方案
  • ZYNQ-自定义呼吸灯IP核以及PS-PL数据发送接收
  • Easy系列PLC高速计数器比较指令
  • 跟着文档学Vuex(一):什么是Vuex
  • 小智项目架构分析
  • uniapp实现统一添加后端请求Header方法
  • 如何评价 DeepSeek 的 DeepSeek-V3 模型?
  • OpenAvatarChat要解决UnicodeDecodeError
  • 云服务器主动防御策略与自动化防护(下)
  • MySQL最新版9.3.0安装教程
  • 【C++游戏引擎开发】第28篇:OpenGL异步加载纹理技术详解
  • Python分支结构全面解析与实战应用指南
  • n8n部署docker本地化备份和数据持久化和迁移问题
  • 苍穹外卖10
  • 中办、国办印发《安全生产考核巡查办法》
  • 马上评丨别让“免费领养”套路坑消费者又坑宠物
  • 专访|首夺天元头衔创生涯历史,王星昊打算一步一步慢慢来
  • 北京动物园:大熊猫“萌兰”没有参加日本大阪世博会的计划
  • 金融创新破局记:中小微企业转型背后的金融力量
  • 学校食堂饭菜有蛆?举报人遭值班人员辱骂?四川苍溪县教育局回应