实验室简介#
Hulab 致力于MRI成像的研究。我们的工作覆盖了从MRI序列设计、图像重建、图像分割,到少量的临床分析算法设计。
序列设计#
仪器相关#
学院配备多台高场与超高场磁共振扫描仪,下表列出当前可用的主要采集设备。
| 仪器 | 磁场强度 | 型号 |
|---|---|---|
| 3.0T 高场磁共振扫描仪 | 3.0T | MR890 |
| 3.0T 高场磁共振扫描仪 | 3.0T | MR790 |
| 5.0T 超高场磁共振扫描仪 | 5.0T | Jupiter |
注:表格中加粗的设备表示该设备为实验室最常使用或推荐的首选。
如需使用这些设备,须先通过学院规定的安全考核和实践操作考核。关于考核流程、预约及使用中遇到的问题,请在“BME学院磁共振实验室用户群”微信群中反馈或联系负责仪器与考核事项的魏昭老师。
此外,如有额外的图像采集需求,可通过胡鹏老师、周子健老师或学长协调,也可自行联系联影医疗集团或相关合作医院。
序列开发环境相关#
序列开发流程主要分为以下三个步骤:
- 使用 Visual Studio 或 pulseq 开发并编译序列包;
- 通过本地 adept 测试环境模拟扫描;
- 在学院扫描仪安装序列并进行真机测试。
要想进行联影设备的序列开发,首先需要向联影申请序列开发许可证,并且获得序列开发所需的密钥USB设备。
下表及列表汇集了序列开发中所有可用的资源。
说明:带有 \\ 开头的路径为局域网共享文件夹,可通过 SMB 协议访问。在 Windows 系统中,只需打开“文件资源管理器”,将路径复制并粘贴到顶部地址栏即可直接连接并访问对应文件。
- MR890 开发文件:
\\10.19.136.73\Dicom\Group Hupeng\UIH_adept\20230420 - 5.0T Jupiter 开发文件:
\\10.19.138.43\HuLab-ShareFolder\UIH_adept\V11_5T_APP - Pulseq 相关教学材料:
\\10.19.138.43\HuLab-ShareFolder\AdeptPulseq - 联影序列开发教程:
\\10.19.136.73\Dicom\Group Hupeng\UIH_adept\adept-manual - 联影 Adept 开发者论坛:https://adept.united-imaging.com/
计算资源#
图像重建、图像处理等任务需要高性能计算资源。目前我们可用的计算资源主要分为 3 类。
1. 实验室个人计算机#
实验室为每个人配发了一台高性能 CPU 计算设备,能够满足一部分图像批处理需求。但由于缺乏高性能显卡,该设备不适合处理深度学习等需要高算力的任务。
2. 实验室工作站#
Hulab 拥有若干台独立的 GPU 工作站,可以用于处理深度学习和密集图像批处理任务。该资源属于实验室公共资源,每台工作站都拥有独立的存储空间和用户账号。
目前可用的服务器及相关节点信息如下:
8x NVIDIA GeForce RTX 4090 24GB
- 位置:托管于学校图信机房
- 连接信息:IP
10.15.85.191,端口22112
1x NVIDIA RTX A6000 48GB
- 位置:放置在实验室
- 连接信息:IP
10.19.136.74,端口22
1x NVIDIA RTX 6000 Ada Generation (96GB)
- 位置:放置在实验室
- 连接信息:IP
10.19.138.157,端口22
此外,实验室还提供一台公共的网络附加存储(NAS)设备,用于共享和集中存储数据集以及重要的开发文件。
- 公共 NAS (存储节点):IP
10.19.138.43。 可选的访问方式如下:- SMB 协议:在 Windows 系统中,打开“文件资源管理器”,将
\\10.19.138.43复制并粘贴到顶部地址栏即可直接连接并访问对应文件。 - 网页app访问:通过浏览器访问
http://10.19.138.43:5000 - 通过已挂载该设备的服务器访问:在上述实验室工作站上,
/nas-data和/nas-data2路径分别对应NAS的/volume1/HuLab-ShareFolder和/volume1/HuLab-ShareFolder2共享文件夹。
- SMB 协议:在 Windows 系统中,打开“文件资源管理器”,将
由于目前没有设置在线用户统一登录服务器,实验室各台设备的用户uid和gid不相同。因此若在工作站A在NAS上创建了文件,在工作站B上将被系统识别为不同的用户而不具有修改权限。
开通账号及相关问题反馈请联系研究助理李园园或实验室负责管理计算资源的学长。设备故障请联系供应商。
此外,由于存储资源紧张,在任意工作站创建文件前,请通过 df -h 命令检查磁盘使用情况,确保有足够的剩余空间来存储文件。此外,若未对源文件进行修改,尽量使用软链接,防止一份文件被复制多份占用过多存储空间。
3. BME 高性能计算集群 (Slurm)#
学院拥有高性能计算集群,涵盖多卡和单卡计算资源。推荐使用学院的集群来处理持续数天的计算任务。
若想使用学院的计算集群,首先需要联系研究助理李园园,向学校提交高性能平台账号申请。集群使用中遇到的任何问题,需通过“BME集群用户反馈群”微信群反馈。
当前负责管理学院集群的管理员是王雷和崔智铭老师。
学院集群使用 Slurm 调度系统管理,可以使用单个账号访问集群内任意计算或存储节点。
- 学院官方教程:https://it.shanghaitech.edu.cn/2025/0109/c8851a1105894/page.htm
- 自服务平台:https://hpc.shanghaitech.edu.cn/platform/index
我们重点关注 Slurm 平台的登录节点和计算节点:
- 登录节点:用于安装环境和计算,不能用于任何高负载计算任务。
- 计算节点:用于任务,无法连接广域网,具有比较严格的防火墙限制,且普通用户无法登录没有运行自己任务的计算节点。
集群常用的登录节点如下表所示:
| 节点名称 | IP 地址 | 端口 | 备注 |
|---|---|---|---|
| bme_login1 | 10.15.19.6 | 22112 | 常用登录节点 |
| bme_login2 | 10.15.49.7 | 22112 | 常用登录节点 |
| bme_login_file | 10.15.49.36 | 22112 | 局域网高带宽文件传输节点,仅用于传输文件,不能用于提交任务或连接广域网 |
在登录节点提交任务后,通过 squeue 查询计算节点的主机名,才能通过 ssh hostname 登录计算节点干些坏事。