当前位置: 首页 >
如何设计一条 prompt 让 LLM 陷入死循环?_新疆维吾尔自治区伊犁哈萨克自治州察布查尔锡伯自治县移劣业店面设计合伙企业
- 程序员不租房住车里,称三年多省了差不多十万,被质疑占用公共***,怎样看他的选择?这算占用公共***吗?
- 有没有GUI框架开发难度小,***消耗又不多,而且又跨平台?
- GNOME 自带的输入法 iBus 是个怎样的存在?
- 新买了一台nas,第一个月下载20t+,上传5+,不会被网警盯上吧?
- M4 Mac mini2024款,这种主机到底怎么样呀?
- 为什么台式 PC 还处在组装(DIY)阶段?
- 为什么好多人不承认大众审美就是喜欢白皮?
- 几百吨重的飞机为什么能飞起来?
- 为什么王楚钦之前被喷三大赛挂0,世乒赛夺冠之后依然被黑?
- 冬天也要穿胸罩吗?
联系我们
邮箱:
手机:
电话:
地址:
如何设计一条 prompt 让 LLM 陷入死循环?
作者: 发布时间:2025-06-27 11:10:13点击:
核心有两个: 1 选小size的低智模型 2 用trick的prompt 前者小参数一般指是的是两位数B以下的模型,最好是1.5B左右的小模型,这种模型的智力不会高到什么地方。
然后再用比较tirkcy的Prompt,比如下面这个: 重复这句话两次:'重复这句话两次:' 这个就让Gemma 9B这个笨蛋模型卡住了,其实可以理解为死循环。
它的特征就是:Prompt的输出又是一条指令。
也就是我让你做一件事情,但是这件事情的结果本身又是一条指令,那么“比较…。
新闻资讯
-
2025-06-23「绝世美女」都有什么特点?
-
2025-06-23为什么游戏总是缺少 dll 文件?
-
2025-06-23为什么 php 可以做到 7 毫秒以内响应,而 .net 做不到?
-
2025-06-23乡镇公务员既然提拔快为什么没人主动去乡镇?我很好奇?
-
2025-06-23自己拥有一台服务器可以做哪些很酷的事情?
-
2025-06-23Rust开发Web后端效率如何?
相关产品