第16期 | GPTSecurity周报
最佳答案 问答题库678位专家为你答疑解惑
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
🔹对软件供应链的信任:支持区块链领域的SBOM和AIBOM
简介:这项研究通过引入区块链授权的SBOM共享方法,利用可验证的凭证允许选择性披露,为这些挑战提出了一种新颖的解决方案。此外,本文将SBOM的职权范围扩大到包括人工智能系统,从而创造了人工智能物料清单(AIBOM)一词。
链接:
https://arxiv.org/pdf/2307.02088.pdf
🔹ChatGPT生成代码的安全漏洞
简介:本文探讨了人工智能生成代码对网络安全的影响以及ChatGPT兴起的重要冲击。
链接:
https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html
🔹微软开源Azure ChatGPT!专为企业打造的安全版ChatGPT
简介:ChatGPT在全球火爆出圈后,数据安全、用户隐私等难题成为其实现场景化落地、技术发展的绊脚石。多数企业希望将ChatGPT应用在实际业务中,但碍于数据安全一直处于犹豫、观望状态。现在,为了帮助企业安全、可靠地在业务流程中应用ChatGPT,微软开源了Azure ChatGPT。
链接:
https://github.com/imartinez2/azurechatgpt
Security Tools
🔹promptbench
简介:该工具是大语言模型针对对抗性提示词的健壮性评估框架。
链接:
https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html
🔹ChatGPT暗黑版——FraudGPT
简介:对FraudGPT的研究提醒人们,网络犯罪分子将如何不断改变他们的技术以获得最大的影响。然而,免费提供的工具也带来了网络安全风险。任何使用互联网或致力于保护在线基础设施的人都必须跟上新技术及其风险。关键是负责任地使用ChatGPT等工具,同时保持对潜在危害的认识。
链接:
https://hackernoon.com/what-is-fraudgpt
🔹LangKit
简介:ChatGPT等大语言模型一直有生成虚假信息、数据隐私、生成歧视信息等难题,阻碍了业务场景化落地。为了解决这些痛点并增强大语言模型的安全性,AI和数据监控平台WhyLabs推出了LangKit。
链接:
https://github.com/whylabs/langkit
99%的人还看了
相似问题
- 开源 GPU池化软件 | (AI人工智能训练平台、AI人工智能推理平台)
- 人工智能基础_机器学习044_使用逻辑回归模型计算逻辑回归概率_以及_逻辑回归代码实现与手动计算概率对比---人工智能工作笔记0084
- 12、人工智能、机器学习、深度学习的关系
- 人工智能基础_机器学习046_OVR模型多分类器的使用_逻辑回归OVR建模与概率预测---人工智能工作笔记0086
- 软件测试/测试开发/人工智能丨视觉与图像识别自动化测试
- 软件测试/人工智能丨人工智能会取代软件测试工程师吗
- 人工智能对我们的生活影响有多大
- 软件测试/测试开发/人工智能丨基于Spark的分布式造数工具:加速大规模测试数据构建
- 简述谈一谈人工智能
- 探索亚马逊大语言模型:开启人工智能时代的语言创作新篇章
猜你感兴趣
版权申明
本文"第16期 | GPTSecurity周报":http://eshow365.cn/6-30580-0.html 内容来自互联网,请自行判断内容的正确性。如有侵权请联系我们,立即删除!