德国科隆莱茵应用技术大学_德国科隆莱茵应用技术大学世界排名
121. 从大脑信号解码中进行查询扩充
标题:Query Augmentation by Decoding Semantics from Brain Signals
机构:清华大学、阿姆斯特丹大学
地址:https://arxiv.org/pdf/2402.15708
122. LLMs可以以实用方式自我防御免受越狱攻击:一篇愿景论文
标题:LLMs Can Defend Themselves Against Jailbreaking in a Practical Manner: A Vision Paper
机构:南洋理工大学、香港科技大学、香港城市大学
相关领域:数据集构建、模型评估、模型蒸馏
地址:https://arxiv.org/pdf/2402.15727
123. CodeChameleon: 大模型越狱的个性化加密框架
标题:CodeChameleon: Personalized Encryption Framework for Jailbreaking Large Language Models
机构:复旦大学
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2402.16717
124. GAOKAO-MM: 一个用于多模态模型评估的中国人类水平基准
标题:GAOKAO-MM: A Chinese Human-Level Benchmark for Multimodal Models Evaluation
机构:复旦大学
相关领域:评估指标、多模态
地址:https://arxiv.org/pdf/2402.15745
125. DART: 增强深度的准确实时背景抠图
标题:DART: Depth-Enhanced Accurate and Real-Time Background Matting
机构:江西师范大学、西北工业大学
地址:https://arxiv.org/pdf/2402.15820
126. Chimera: 一个无损解码方法,通过融合所有标记加速大模型推理
标题:Chimera: A Lossless Decoding Method for Accelerating Large Language Models Inference by Fusing all Tokens
机构:华南理工大学、香港科技大学
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2402.15758
127. Referee Can Play:通过模型反演实现条件生成的替代方法
标题:Referee Can Play: An Alternative Approach to Conditional Generation via Model Inversion
机构:香港科技大学、新加坡国立大学
相关领域:模型结构改进、多模态
地址:https://arxiv.org/pdf/2402.16305
128. 智能电商推荐中使用Transformer模型进行文本理解和生成
标题:Text Understanding and Generation Using Transformer Models for Intelligent E-commerce Recommendations
机构:东北大学、南加州大学、弗吉尼亚理工学院
相关领域:预训练
地址:https://arxiv.org/pdf/2402.16035
129. 自监督预训练用于表格结构识别的Transformer
标题:Self-Supervised Pre-Training for Table Structure Recognition Transformer
机构:乔治亚理工学院
相关领域:预训练
地址:https://arxiv.org/pdf/2402.15578
代码:https://github.com/poloclub/unitable
130. 生成人工智能对术语定义的影响
标题:What Generative Artificial Intelligence Means for Terminological Definitions
地址:https://arxiv.org/pdf/2402.16139
131. 评估ChatGPT在垃圾邮件检测中的性能
标题:Evaluating the Performance of ChatGPT for Spam Email Detection
相关领域:指令微调
地址:https://arxiv.org/pdf/2402.15537
132. Foot In The Door:通过认知心理学理解大模型越狱
标题:Foot In The Door: Understanding Large Language Model Jailbreaking via Cognitive Psychology
机构:国防科技大学
相关领域:预训练
地址:https://arxiv.org/pdf/2402.15690
133. 面向预训练表示的NLP中高效主动学习
标题:Towards Efficient Active Learning in NLP via Pretrained Representations
机构:纽约大学
相关领域:预训练
地址:https://arxiv.org/pdf/2402.15613
134. RetrievalQA: 评估自适应检索增强生成用于短形式开放领域问答
标题:RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering
机构:悉尼科技大学
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2402.16457
代码:https://github.com/hyintell/RetrievalQA
135. RecWizard: 一个具有模块化、便携模型和交互用户界面的对话推荐工具包
标题:RecWizard: A Toolkit for Conversational Recommendation with Modular, Portable Models and Interactive User Interface
机构:加州大学
地址:https://arxiv.org/pdf/2402.15591
代码:https://github.com/McAuley-Lab/RecWizard
136. 随机条件扩散模型用于语义图像合成
标题:Stochastic Conditional Diffusion Models for Semantic Image Synthesis
机构:韩国高丽大学
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2402.16506
137. 最后一英里交付的在线无人机调度
标题:Online Drone Scheduling for Last-mile Delivery
机构:印度理工学院
地址:https://arxiv.org/pdf/2402.16085
138. CARTE: 针对表格学习的预训练和迁移
标题:CARTE: pretraining and transfer for tabular learning
相关领域:预训练、模型结构改进
地址:https://arxiv.org/pdf/2402.16785
139. AVI-Talking: 学习用于表达性3D说话面部生成的音频视觉指令
标题:AVI-Talking: Learning Audio-Visual Instructions for Expressive 3D Talking Face Generation
机构:悉尼大学
相关领域:多模态
地址:https://arxiv.org/pdf/2402.16124
140. QuaCer-C: 大模型知识理解的定量认证
标题:QuaCer-C: Quantitative Certification of Knowledge Comprehension in LLMs
机构:伊利诺伊大学
相关领域:模、型、评、估
地址:https://arxiv.org/pdf/2402.15929
141. PAQA: 朝着积极的开放检索问答模型迈进
标题:PAQA: Toward ProActive Open-Retrieval Question Answering
机构:索邦大学
地址:https://arxiv.org/pdf/2402.16608
142. PRP: 传播通用干扰以攻击大模型守卫栏
标题:PRP: Propagating Universal Perturbations to Attack Large Language Model Guard-Rails
机构:密歇根大学、威斯康星大学
相关领域:模型结构改进
地址:https://arxiv.org/pdf/2402.15911
143. 人类如何编写代码?大型模型也以相同方式进行
标题:How Do Humans Write Code? Large Models Do It the Same Way Too
机构:华东师范大学
相关领域:模型结构改进、数据集构建
地址:https://arxiv.org/pdf/2402.15729
144. 从头开始训练神经网络:并行低秩适配器
标题:Training Neural Networks from Scratch with Parallel Low-Rank Adapters
相关领域:预训练
地址:https://arxiv.org/pdf/2402.16828
145. 将生物医学和临床预训练模型调整到法语长文档中的比较研究
标题:Adaptation of Biomedical and Clinical Pretrained Models to French Long Documents: A Comparative Study
相关领域:预训练
地址:https://arxiv.org/pdf/2402.16689
146. 神经势预训练策略
标题:Pretraining Strategy for Neural Potentials
相关领域:预训练
地址:https://arxiv.org/pdf/2402.15921
147. 生成情感分析有效的集成模型
标题:Generating Effective Ensembles for Sentiment Analysis
相关领域:模型结构改进、数据集构建
地址:https://arxiv.org/pdf/2402.16700
148. 高保真人像视频会议的分辨率不可知神经压缩
标题:Resolution-Agnostic Neural Compression for High-Fidelity Portrait Video Conferencing via Implicit Radiance Fields
机构:上海交通大学
地址:https://arxiv.org/pdf/2402.16599
149. 预测可持续发展目标:从LLMs到传统基础模型的课程描述
标题:Predicting Sustainable Development Goals Using Course Descriptions — from LLMs to Conventional Foundation Models
机构:科隆莱茵应用技术大学
相关领域:预训练
地址:https://arxiv.org/pdf/2402.16420
150. HuBERT 使用在犬语言的音韵和词汇发现
标题:Phonetic and Lexical Discovery of a Canine Language using HuBERT
机构:上海交通大学、德克萨斯大学
相关领域:预训练
地址:https://arxiv.org/pdf/2402.15985
本文由任意链接整理发布,如若转载,请注明出处:https://www.renyilink.com/17348.html