本文介绍了LexEval,这是一个全面的中文法律基准测试,用于评估大型语言模型在法律领域的能力。LexEval包括6个层面的23个任务,涵盖了法律认知能力的各个方面,是目前最大规模的中文法律评估数据集。通过对38个流行的大型语言模型进行全面评估,发现现有模型在法律领域的表现还存在很大局限性,需要进一步的技术创新和跨学科合作来提升法律语言模型的能力。
本文提出了一种名为GlitchProber的新方法,通过分析大型语言模型内部激活状态的差异来有效检测和修复故障令牌。
本文提出了一种基于强化学习的新型黑盒越狱攻击方法,通过小型模型与大型语言模型的协作,无需依赖有害参考答案,能够有效突破目标模型的安全防御。
利用Intel SGX的安全执行环境来保护密文策略属性加密的关键组件和策略评估,从而提高数据访问和保护的安全性。
本文提出了一种基于NIST自适应比例和重复计数测试的在线异常检测程序,并通过统计分析Monobit和RUNS补充了对熵源质量的评估。该程序在FPGA固件中实现,可以在生成比特流的同时执行,并提供熵源的熵估计。该方法通过监测平均值的偏移来检测单比特级别的偏差,并提出了一种新的方法来使用重复计数测试和自适应比例测试的失败频率估计熵源的下限。
提出了一种新的基于对比学习的智能合约漏洞检测方法Clear,能够有效利用合约之间的相关性信息提高检测性能。
提出了两种云媒体共享方案FairCMS-I和FairCMS-II,通过巧妙利用代理重加密技术和非对称指纹技术,同时解决了云端数据隐私泄露、所有者版权侵犯和用户权利侵犯等三大问题,并提供了不同的隐私/效率权衡。