|
原創(chuàng)內(nèi)容第680篇,專(zhuān)注量化投資、個(gè)人成長(zhǎng)與財(cái)富自由。 用戶判斷星球會(huì)員后,會(huì)獲得10個(gè)積分:
當(dāng)其他用戶發(fā)布策略,設(shè)置為下載需要積分時(shí):
下載策略會(huì)扣除相應(yīng)的積分,扣除的積分屬于策略所有者。 策略運(yùn)行結(jié)果支持把名稱顯示出來(lái):
策略列表支持顯示作者名稱:
支持按類(lèi)型篩選ETF:
后續(xù)會(huì)持續(xù)補(bǔ)充因子、規(guī)則和策略。 也支持大家低代碼開(kāi)發(fā)與發(fā)布策略,特別合適沒(méi)有代碼基礎(chǔ),或者不想安裝python環(huán)境的同學(xué)們使用。 大模型相關(guān) 第一性原理,看大模型周邊框架。 兩個(gè)比較大的框架:langchain和llamaindex。 且對(duì)國(guó)內(nèi)生態(tài)不友好。 最關(guān)鍵的問(wèn)題是,它們到底做了什么呢?封裝了不少東西,新手看得云里霧里,還以為是LLM就應(yīng)該這么復(fù)雜呢。 其實(shí),大模型api,尤其是openai兼容的api,本身調(diào)用是非常簡(jiǎn)潔且易用理解的,但被包裝一層就更顯復(fù)雜。 封裝如果有用,或者帶來(lái)很多便利當(dāng)然好。 但事實(shí)上沒(méi)有,大模型周邊,有幾件事: 1、所謂“記憶”,就是query的歷史。需要的話,每一次帶上就好了。然后是什么? 2、RAG,也就是第三方庫(kù)查詢一些片段,帶到你的query里作為背景信息。 3、調(diào)用函數(shù)。全天候風(fēng)險(xiǎn)平價(jià)策略下載 | Quantlab AI v0.2:OpenAI的Swarm適配國(guó)內(nèi)大模型(附python代碼下載)swarm這種輕量的封裝是有價(jià)值的,代碼量也很小。 多智能體協(xié)作,目前還是概念,智能體之間協(xié)作,主要還是靠人工拆解來(lái)完成。 主要還是與大模型的交互上,也就是prompts。而prompts本身,也取決于大模型自身的能力。就是模型本身厲害的話,你怎么寫(xiě)也響應(yīng)得還可以,如果本身模型不夠,你如何tuning你的prompts也是沒(méi)有用的。 大模型厲害的地方,在于,它能直接接受你的自然語(yǔ)言問(wèn)答,意圖識(shí)別與多輪對(duì)話,這在傳統(tǒng)nlp領(lǐng)域里很難的命題。 進(jìn)攻是最好的防守。 與其無(wú)端地?fù)?dān)心這或那,這種事情是應(yīng)接不暇的。 “順其自然,為所當(dāng)為”是基礎(chǔ)原則。 在堅(jiān)持和等待中積蓄力量。 讀劉邦和故事,與朱元璋竟然有很大的相似。 好在咱們這個(gè)時(shí)代,人生是曠野而不是軌道。 不必一條道走到黑。 作者:AI量化實(shí)驗(yàn)室(專(zhuān)注量化投資、個(gè)人成長(zhǎng)與財(cái)富自由) |
|
|
來(lái)自: AI量化實(shí)驗(yàn)室 > 《待分類(lèi)》