德国科隆莱茵应用技术大学_德国科隆莱茵应用技术大学世界排名

121. 从大脑信号解码中进行查询扩充

标题:Query Augmentation by Decoding Semantics from Brain Signals

机构:清华大学、阿姆斯特丹大学

地址:https://arxiv.org/pdf/2402.15708

122. LLMs可以以实用方式自我防御免受越狱攻击:一篇愿景论文

标题:LLMs Can Defend Themselves Against Jailbreaking in a Practical Manner: A Vision Paper

机构:南洋理工大学、香港科技大学、香港城市大学

相关领域:数据集构建、模型评估、模型蒸馏

地址:https://arxiv.org/pdf/2402.15727

123. CodeChameleon: 大模型越狱的个性化加密框架

标题:CodeChameleon: Personalized Encryption Framework for Jailbreaking Large Language Models

机构:复旦大学

相关领域:模型结构改进

地址:https://arxiv.org/pdf/2402.16717

124. GAOKAO-MM: 一个用于多模态模型评估的中国人类水平基准

标题:GAOKAO-MM: A Chinese Human-Level Benchmark for Multimodal Models Evaluation

机构:复旦大学

相关领域:评估指标、多模态

地址:https://arxiv.org/pdf/2402.15745

125. DART: 增强深度的准确实时背景抠图

标题:DART: Depth-Enhanced Accurate and Real-Time Background Matting

机构:江西师范大学、西北工业大学

地址:https://arxiv.org/pdf/2402.15820

126. Chimera: 一个无损解码方法,通过融合所有标记加速大模型推理

标题:Chimera: A Lossless Decoding Method for Accelerating Large Language Models Inference by Fusing all Tokens

机构:华南理工大学、香港科技大学

相关领域:模型结构改进

地址:https://arxiv.org/pdf/2402.15758

127. Referee Can Play:通过模型反演实现条件生成的替代方法

标题:Referee Can Play: An Alternative Approach to Conditional Generation via Model Inversion

机构:香港科技大学、新加坡国立大学

相关领域:模型结构改进、多模态

地址:https://arxiv.org/pdf/2402.16305

128. 智能电商推荐中使用Transformer模型进行文本理解和生成

标题:Text Understanding and Generation Using Transformer Models for Intelligent E-commerce Recommendations

机构:东北大学、南加州大学、弗吉尼亚理工学院

相关领域:预训练

地址:https://arxiv.org/pdf/2402.16035

129. 自监督预训练用于表格结构识别的Transformer

标题:Self-Supervised Pre-Training for Table Structure Recognition Transformer

机构:乔治亚理工学院

相关领域:预训练

地址:https://arxiv.org/pdf/2402.15578

代码:https://github.com/poloclub/unitable

130. 生成人工智能对术语定义的影响

标题:What Generative Artificial Intelligence Means for Terminological Definitions

地址:https://arxiv.org/pdf/2402.16139

131. 评估ChatGPT在垃圾邮件检测中的性能

标题:Evaluating the Performance of ChatGPT for Spam Email Detection

相关领域:指令微调

地址:https://arxiv.org/pdf/2402.15537

132. Foot In The Door:通过认知心理学理解大模型越狱

标题:Foot In The Door: Understanding Large Language Model Jailbreaking via Cognitive Psychology

机构:国防科技大学

相关领域:预训练

地址:https://arxiv.org/pdf/2402.15690

133. 面向预训练表示的NLP中高效主动学习

标题:Towards Efficient Active Learning in NLP via Pretrained Representations

机构:纽约大学

相关领域:预训练

地址:https://arxiv.org/pdf/2402.15613

134. RetrievalQA: 评估自适应检索增强生成用于短形式开放领域问答

标题:RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering

机构:悉尼科技大学

相关领域:模型结构改进

地址:https://arxiv.org/pdf/2402.16457

代码:https://github.com/hyintell/RetrievalQA

135. RecWizard: 一个具有模块化、便携模型和交互用户界面的对话推荐工具包

标题:RecWizard: A Toolkit for Conversational Recommendation with Modular, Portable Models and Interactive User Interface

机构:加州大学

地址:https://arxiv.org/pdf/2402.15591

代码:https://github.com/McAuley-Lab/RecWizard

136. 随机条件扩散模型用于语义图像合成

标题:Stochastic Conditional Diffusion Models for Semantic Image Synthesis

机构:韩国高丽大学

相关领域:模型结构改进

地址:https://arxiv.org/pdf/2402.16506

137. 最后一英里交付的在线无人机调度

标题:Online Drone Scheduling for Last-mile Delivery

机构:印度理工学院

地址:https://arxiv.org/pdf/2402.16085

138. CARTE: 针对表格学习的预训练和迁移

标题:CARTE: pretraining and transfer for tabular learning

相关领域:预训练、模型结构改进

地址:https://arxiv.org/pdf/2402.16785

139. AVI-Talking: 学习用于表达性3D说话面部生成的音频视觉指令

标题:AVI-Talking: Learning Audio-Visual Instructions for Expressive 3D Talking Face Generation

机构:悉尼大学

相关领域:多模态

地址:https://arxiv.org/pdf/2402.16124

140. QuaCer-C: 大模型知识理解的定量认证

标题:QuaCer-C: Quantitative Certification of Knowledge Comprehension in LLMs

机构:伊利诺伊大学

相关领域:模、型、评、估

地址:https://arxiv.org/pdf/2402.15929

141. PAQA: 朝着积极的开放检索问答模型迈进

标题:PAQA: Toward ProActive Open-Retrieval Question Answering

机构:索邦大学

地址:https://arxiv.org/pdf/2402.16608

142. PRP: 传播通用干扰以攻击大模型守卫栏

标题:PRP: Propagating Universal Perturbations to Attack Large Language Model Guard-Rails

机构:密歇根大学、威斯康星大学

相关领域:模型结构改进

地址:https://arxiv.org/pdf/2402.15911

143. 人类如何编写代码?大型模型也以相同方式进行

标题:How Do Humans Write Code? Large Models Do It the Same Way Too

机构:华东师范大学

相关领域:模型结构改进、数据集构建

地址:https://arxiv.org/pdf/2402.15729

144. 从头开始训练神经网络:并行低秩适配器

标题:Training Neural Networks from Scratch with Parallel Low-Rank Adapters

相关领域:预训练

地址:https://arxiv.org/pdf/2402.16828

145. 将生物医学和临床预训练模型调整到法语长文档中的比较研究

标题:Adaptation of Biomedical and Clinical Pretrained Models to French Long Documents: A Comparative Study

相关领域:预训练

地址:https://arxiv.org/pdf/2402.16689

146. 神经势预训练策略

标题:Pretraining Strategy for Neural Potentials

相关领域:预训练

地址:https://arxiv.org/pdf/2402.15921

147. 生成情感分析有效的集成模型

标题:Generating Effective Ensembles for Sentiment Analysis

相关领域:模型结构改进、数据集构建

地址:https://arxiv.org/pdf/2402.16700

148. 高保真人像视频会议的分辨率不可知神经压缩

标题:Resolution-Agnostic Neural Compression for High-Fidelity Portrait Video Conferencing via Implicit Radiance Fields

机构:上海交通大学

地址:https://arxiv.org/pdf/2402.16599

149. 预测可持续发展目标:从LLMs到传统基础模型的课程描述

标题:Predicting Sustainable Development Goals Using Course Descriptions — from LLMs to Conventional Foundation Models

机构:科隆莱茵应用技术大学

相关领域:预训练

地址:https://arxiv.org/pdf/2402.16420

150. HuBERT 使用在犬语言的音韵和词汇发现

标题:Phonetic and Lexical Discovery of a Canine Language using HuBERT

机构:上海交通大学、德克萨斯大学

相关领域:预训练

地址:https://arxiv.org/pdf/2402.15985

本文由任意链接整理发布,如若转载,请注明出处:https://www.renyilink.com/17348.html