• 正文概述
  • GitHub – NineAbyss/GLBench:NeurIPS 的官方实现 24 数据集和基准测试 Track 论文:GLBench:具有大型语言模型的图的综合基准测试

    GLBench:大型语言模型图形的综合基准

    如果您喜欢我们的项目,请在 GitHub 上给我们一个星号⭐以获取最新更新。

    图像描述 GitHub 星标 图像描述

    这是以下论文的正式实现:

    GLBench:具有大型语言模型的图的综合基准 [论文]

    李玉涵, 王培松, 朱晓, 陈奥川, 江海云, 邓蔡, 陈伟健, 李佳

    图像描述

    图与法学硕士的趋势。

    环境设置

    在开始之前,请确保您的系统上安装了 Anaconda 或 Miniconda。本指南假设您有一个支持 CUDA 的 GPU。 创建 conda 环境后(我们推荐 python==3.10),请运行

    pip install -r requirements.txt
    

    安装 python 包。

    数据

    GLBench 中的所有数据集都可以在此链接中找到。 请将它们放入文件夹中。datasets

    标杆

    监督

    古典(GNN)

    经典 GNN 进行基准测试(网格搜索超参数)

    cd models/gnn
    bash models/gnn/run.sh
    

    法学硕士

    在监督设置(Sent-BERT、BERT、RoBERTa)中对 LLM 进行基准测试

    cd models/llm/llm_supervised
    bash roberta_search.sh
    

    在零样本设置(gpt-4o、gpt-3.5-turbo、llama3-70b、deepseek-chat)中对 LLM 进行基准测试

    cd models/llm/llm_zeroshot
    python inference.py --model gpt-4o --data cora
    

    增强

    • 巨大

    由于一些包冲突或版本限制,我们建议使用 docker 运行 GIANT。docker 文件位于

    models/enhancer/giant-xrt/dockerfile
    

    启动 Docker 容器后,运行

    cd models/enhancer/giant-xrt/
    bash run_all.sh
    
    cd models/enhancer/TAPE/
    bash run.sh
    
    • OFA
    cd models/enhancer/OneForAll/
    bash run.sh
    
    • 发动机

    预测

    • InstructGLM
    • 图形文本

    由于一些包冲突或版本限制,我们建议使用 docker 来运行 GraphText。docker 文件位于

    models/predictor/GraphText/dockerfile
    

    启动 Docker 容器后,运行

    cd models/predictor/GraphText
    bash run.sh
    
    • 图形适配器
    cd models/predictor/GraphAdapter
    bash run.sh
    
    • 拉加

    Aignment

    • 格莱姆
    cd models/alignment/GLEM
    bash run.sh
    
    • 巴顿
    bash run_pretrain.sh
    bash nc_class_train.sh
    bash nc_class_test.sh
    

    We also provide seperate scripts for different datasets.

    • Zero-shot

    LLM

    Benchmark the LLMs(LLaMA3, GPT-3.5-turbo, GPT-4o, DeepSeek-chat)

    cd models/llm
    

    您可以为 OpenAI 使用自己的 API 密钥。

    增强

    • OFA
    cd models/enhancer/OneForAll/
    bash run_zeroshot.sh
    
    • 零G
    cd models/enhancer/ZeroG/
    bash run.sh
    

    预测

    • 图形GPT
    cd models/predictor/GraphGPT
    bash ./scripts/eval_script/graphgpt_eval.sh
    

    仅供参考:我们的其他作品

    🔥 图遇上大语言模型的综述:进展与未来方向 (IJCAI’24) GitHub 星标

    Github 存储库 |

    🔥 ZeroG:研究图中的跨数据集零样本可转移性 (KDD’24) GitHub 星标

    Github 存储库 |

    确认

    我们感谢我们引用的所有作品的作者,因为他们扎实的工作和清晰的代码组织! GraphLLM 方法的原始版本如下:

    对准:

    格莱姆:

    • (2022.10) [ICLR’ 2023] 通过变分推断学习大规模文本归因图 [论文 |法典]

    巴顿:

    • (2023.05) [ACL’ 2023] PATTON : Language Model Pretraining on Text-rich Networks [论文 |法典]

    增强:

    发动机:

    • (2024.01) [IJCAI’ 2024] 文本图上大型语言模型的高效调优与推理 [论文]

    巨大:

    • (2022.03) [ICLR’ 2022] 基于自监督多尺度邻域预测的节点特征提取 [论文 |法典]

    欧法:

    • (2023.09) [ICLR’ 2024] One for All: Towards Training One Graph Model for All Classification Tasks [论文 |法典]

    磁带:

    • (2023.05) [ICLR’ 2024] 利用解释:LLM-to-LM 解释器增强文本归因图表示学习 [论文 |法典]

    零G:

    • (2024.02) [KDD’ 2024] ZeroG:研究图中的跨数据集零样本可转移性 [论文] |法典]

    预测:

    图形适配器:

    • (2024.02) [WWW’ 2024] GNN 可以成为 LLM 的好适配器吗?[论文]

    图形GPT:

    • (2023.10) [SIGIR’ 2024] GraphGPT:面向大型语言模型的图指令调优 [论文 |法典]

    图形文本:

    • (2023.10) [Arxiv’ 2023] GraphText: 文本空间中的图推理 [论文] |法典]

    InstructGLM:

    • (2023.08) [Arxiv’ 2023] 自然语言是图所需要的一切 [论文 |法典]

    LLaGA:

    • (2024.02) [Arxiv’ 2024] LLaGA: Large Language and Graph Assistant [论文 |法典]

    代码库结构

    $CODE_DIR
        ├── datasets
        └── models
            ├── alignment
            │   ├── GLEM
            │   └── Patton
            ├── enhancer
            │   ├── ENGINE
            │   ├── giant-xrt
            │   ├── OneForAll
            │   ├── TAPE
            │   └── ZeroG
            ├── gnn
            ├── llm
            │   ├── deepseek-chat
            │   ├── gpt-3.5-turbo
            │   ├── gpt-4o
            │   └── llama3-70b
            └── predictor
               ├── GraphAdapter
               ├── GraphGPT
               ├── GraphText
               ├── InstructGLM
               └── LLaGA
    

    大约

    NeurIPS 的官方实现 数据集和基准测试 轨道论文:GLBench:具有大型语言模型的图形的综合基准

    资源

    许可证

    星星

    观察家

    释放

    未发布版本

    未发布包

    语言

    1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!
    2. 分享目的仅供大家学习和交流,请不要用于商业用途!
    3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入!
    4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
    5. 如有链接无法下载、失效或广告,请联系管理员处理!
    6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
    7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员!
    8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载
    声明如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性

    GLB下载网 - GLB/GLTF模型与格式资源免费下载,支持在线浏览与转换 » NeurIPS 的官方实现 数据集和基准测试 轨道论文:GLBench:具有大型语言模型的图形的综合基准

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载要提取码
    百度网盘提取码都是gltf。
    分享过期和重复下载怎么办
    分享过期请使用备份下载,重复下载是不另扣费的,请放心下载。
    模型和平台不兼容怎么办
    可以用网站在线编辑功能,修改模型属性,大小,方向,坐标,中心,透明等问题,然后重新导出既可https://glbxz.com/38636.html
    开通VIP 享更多特权,建议使用 QQ 登录