提出了一种全光学自编码器(OAE)机器学习框架,利用双向传播的衍射神经网络实现图像编码、重建和生成。
提出一种新的联邦学习框架FedMRN,通过让客户端在预定义的随机噪声内寻找最优的模型更新,从而大幅压缩上行通信开销,同时保持与FedAvg相当的模型精度。
我们提出了一种名为TAT-LLM的专门语言模型,通过遵循分步管道(包括提取器、推理器和执行器)对表格和文本数据进行离散推理,并通过外部执行器进一步增强了最终答案的准确性。我们的实验结果表明,我们的TAT-LLM模型在多个基准测试中都优于现有方法,包括大规模语言模型GPT-4。
本文探讨了在信用评分中采用负责任的机器学习实践的重要性,包括公平性、拒绝推断和可解释性等方面。
尽管LMM在视频语义理解方面取得了显著进步,但在视频质量理解方面仍存在明显缺陷,与人类水平相比存在较大差距。Q-Bench-Video旨在系统评估LMM的视频质量理解能力,以推动该领域的进一步发展。
大语言模型在推荐系统中存在固有偏差,会导致推荐结果失真和不公平。本文提出了一种基于因果推理的框架CLLMR,通过光谱编码器和因果推理技术来缓解这一问题,提高推荐系统的性能。
WildFusion 提出了一种利用多模态传感器融合的隐式神经网络表示方法,可以在复杂的野外环境中生成连续的三维场景表示,包括几何、语义、可遍历性等特征,从而增强了机器人在野外环境中的导航能力。
提出了一种名为RouterDC的查询驱动路由器框架,通过双重对比学习来有效地组装多个大型语言模型。
检索增强生成(RAG)系统在提高准确性的同时,也可能引入不公平性问题。本研究系统地评估了RAG系统在不同场景下的公平性表现,发现公平性和准确性之间存在权衡,并分析了RAG各组件对公平性的影响。
提出了一种名为CoTKR的链式思维增强知识重写方法,通过交替生成推理路径和相应的知识总结,生成更有组织、语义更一致的知识表示,以提高大语言模型在知识图谱问答任务中的性能。