云豹为啥不把他家和流行之神一起汉化了






现在的模型上下文标称100万、200万Tokens,实际有效注意力差不多也就1/10。超出这个范围,幻觉几率就高度上升,任务处理也会变得消极。如果你是一名负责人的译者或者编辑,这稿子无论如何也还是得原文对照着译文重新过一遍,这其实没省多少时间。
(当然这是译者用得比较生疏,Gemini用API设置好提示词的话,该错还是错,但至少不会出现总结文句)