PTT推薦

[問卦] ollama本地模型答非所問怎麼辦?

看板Gossiping標題[問卦] ollama本地模型答非所問怎麼辦?作者
naticom
(踢踢~)
時間推噓14 推:14 噓:0 →:15

我試著部署本地ollama,什麼參數都沒加,就直接

ollama run llama3.2:latest 搭配 firefox page-assist 圖形界面

然後把我下面管的幾個人(IT部門)的每日status update貼進去

他們回報的格式是

ticket #: status, action, next step

類似這樣,加上一些隨機的討論

我跟他說這是我組內的周報告,請為每個ticket #整理出一個summary (用英文問的)

結果 ollama 完全答非所問,只回答說

"This appears to be a log file from a distributed system, likely a cloud-basedinfrastructure. The log entries are from various users and mention different
issues with the system, which can be categorized into three main areas:"

根本沒有就我所需要的將每個ticket #做摘要,然後他也只針對其中一種問題做答覆

請問要怎麼修改prompt還是參數(temperature?其他?)啊?

你們都直接 ollama run 就可以用了嗎?

--

※ PTT留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 165.225.211.3 (加拿大)
PTT 網址

azeroth 04/28 09:57=_=??你484發錯版惹

faterosa 04/28 09:57肛它

baan 04/28 09:59先去nvda 網站測llama能不能正常回你,可能l

baan 04/28 09:59lama本來就這麼笨

bill403777 04/28 10:00蛋雕

gino0717 04/28 10:01讓他去從政

neo5277 04/28 10:01多少b 啥顯卡先說阿

chita0258 04/28 10:02LLM Finetuning了解一下

HKCs 04/28 10:02RAG

veryGY 04/28 10:03想省錢就是這種下場 乖乖花錢去用openai

Nonegrame 04/28 10:06參數只有 3b 當然慘

sky777 04/28 10:06你確定部署的是滿血版嗎 還是蒸餾

sky777 04/28 10:06過的

rasheedchiu 04/28 10:07幾B的模型講一下啊

after1 04/28 10:07這個參數量,能符合語法就偷笑了吧

hihjktw 04/28 10:07胡扯比不知道有誠意吧

neo5277 04/28 10:13他這3.2是version 不是b拉

liquidbox 04/28 10:13本地模型比雲端爛多了,跑10分鐘給一堆

liquidbox 04/28 10:13廢話,草稿有改等於沒改,公司出錢有ap

liquidbox 04/28 10:13i當然用雲端

xm3u4vmp6 04/28 10:21本地只有deepseek 能打吧 其他都垃圾

xm3u4vmp6 04/28 10:22不過還是ChatGPT 最完善

fukku100 04/28 10:36開源模型小模型就是給你當玩具玩玩 有

fukku100 04/28 10:36點參與感

fukku100 04/28 10:37真要做產品還是選至少32b以上的吧

awdxabc295 04/28 10:45認真回 重啟就好了

observer0117 04/28 10:50不同模型,不同參數量差異很大

observer0117 04/28 10:51這類工作可考慮command-a 111b

observer0117 04/28 11:39llama3.2就是3b模型啊