Replies: 1 comment
-
我发现我好像发错地方了,我去Qwen1.5那边再发一个 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
我想用千问来做写故事的文字游戏。一开始搭建了32b的模型。
我发现32b在提示词较长时有些纠正不了的逻辑问题
(具体表现是:可能是因为训练集的原因,每次写小说故事都必须加一段对后续发展的展望与总结,比如“这只是故事的开始”、“xxx的故事才刚刚开始”、“一个xxx的故事解开了序幕”、“等待着下一场xxx旅程的开始”或者其他类似这样带有剧透的话。这对于沉浸式故事的创作是致命的。即使是加入大量提示词也无法纠正这一问题,只能略微减少出现频率。)
于是我升级到了72b模型,然后发现这个问题得到了极大的缓解,只要稍微添加提示词就能基本阻止Qwen输出这样的话(虽然偶尔还是有漏网之鱼)
但是我发现在写故事这个事情上,72b的模型和32b的模型的行为存在巨大的差异,简直都不像同一个模型。


在我见到的大多数情况下,72b模型的回答会更加简短,言简意赅,甚至像是平铺直叙,而32b模型则更长、更详细、更有画面感。极端情况下,我遇到过32b模型能给出600字的描写,而72b模型只能给出100字左右。表现得简直不像是同一个模型。
这个结果让我有点意外,想和大家讨论讨论。说不上是好还是不好。也不明白其中原理。
我想知道这是不是模型特性,还是说我的使用上出现了一些问题。总之现在经过一些让72b加长描写字数提示词的尝试,效果依旧不好,感觉挫败感挺强的。
Beta Was this translation helpful? Give feedback.
All reactions