作者 | Just
出品 | CSDN(CSDNnews)
“我發(fā)現(xiàn),軟件研發(fā)總會延期。”一流科技CEO袁進輝說。
按照他的預(yù)期,深度學習框架OneFlow做兩年就能開源給開發(fā)者檢驗,但時間向后延長了近一年半,“確實預(yù)計的不準”。
但無論如何,經(jīng)過1300多天的打磨,一個由30多人團隊打造的基于靜態(tài)調(diào)度和流式執(zhí)行技術(shù)的OneFlow深度學習框架終于問世。
對于剛剛在GitHub開源的OneFlow,袁進輝總體打85分。
與其他幾個“國產(chǎn)”AI框架相比,袁進輝認為,在完備性上,OneFlow比在今年3月開源的MindSpore和MegEngine要更好,不過支持的模型庫還是比2016年就開源的PaddlePaddle要少。
效率方面,OneFlow的一類優(yōu)勢是“人有我優(yōu)”,比如其他框架做數(shù)據(jù)并行得90分,他們進一步“挖油水”,做到接近100分;還有一類叫“人無我有”,其他框架基本只有深度定制才能支持超大模型,而OneFlow可以輕易做到。袁進輝給出了一組數(shù)據(jù)對比,顯示其他框架在大規(guī)模模型訓練效率上與OneFlow對比,有數(shù)量級的差距。
而在多卡的易用性上,OneFlow要比其他框架要好,但在支持動態(tài)圖方面,袁進輝也坦承與PyTorch有差距,不過很快可以追上。
2017年1月,Pytorch正式推出,TensorFlow正如日中天。彼時,國內(nèi)外除了一線大廠,鮮有創(chuàng)業(yè)公司敢去啃AI框架這一硬骨頭,但剛剛成立的一流科技卻對此很堅定,即便那時從資金、團隊、生態(tài)、品牌各個維度上來看,外界認為他們做的是Mission Impossible。
他們的信心源自對底層技術(shù)方向的把握。2015年,當時還在微軟亞洲研究院的袁進輝(網(wǎng)名:老師木)已經(jīng)研究了快兩年的AI框架,和內(nèi)部專家有過很多交流碰撞,這讓他堅定要做一款不同技術(shù)方向的AI框架,但那時在研究院找不到工程團隊支持。袁進輝相信,如果能找到數(shù)十個“袁進輝”組團,就可以搞定這件大事。
2020年年初,在又一次估錯開源時間后,OneFlow團隊最終搞定,開源了二、三十萬行代碼。他希望,把這個框架的精妙和創(chuàng)新之處,與每一位使用它的開發(fā)者分享。
GitHub鏈接:https://github.com/Oneflow-Inc/oneflow
OneFlow地址:https://www.oneflow.org/#
為什么是靜態(tài)調(diào)度和流式執(zhí)行
CSDN:顯然,現(xiàn)在OneFlow是真正接受廣大開發(fā)者檢驗的時候了,跟之前的預(yù)期相比,你給目前開源的版本整體打多少分?
袁進輝:預(yù)期的肯定是想讓框架綜合來說都很好,但這樣做工程量實在太大,所以現(xiàn)在只能在一個維度上非常有特色,有優(yōu)勢,整體我打85分,在擴展性這一個維度上是非常好的。
易用性方面,Pytorch是非常好的。TensorFlow完備性非常好,用戶用這個框架做訓練之后,要在服務(wù)器端部署,就要serving,在終端上部署要有輕量級版本,要搞可視化,要支持很多的算子,模型庫要豐富,要能支持圖像、強化學習,自然語言、廣告推薦等應(yīng)用,要什么要有什么,TensorFlow在這方面非常好。
還有擴展性或效率,就是算的快不快,比如用戶投入10倍或100倍資源,能不能真的讓它加速10倍或100倍,以及現(xiàn)在業(yè)界出現(xiàn)的Bert、GPT-3等大模型,你的框架能不能做。
OneFlow框架比較大的優(yōu)勢或特色,就是效率。
CSDN:像GPT-3這些最新的模型OneFlow都會支持?
袁進輝:GPT-3是土豪才能玩的模型,不單是技術(shù)問題,暫時還不支持。Bert是支持的,還有像廣告推薦、人臉識別、檢測、圖像分類,最常見的十幾個模型一開源就會支持。
CSDN:OneFlow架構(gòu)大致分為哪幾層?
袁進輝:最上面是模型庫,模型庫支持CNN等各種經(jīng)典模型應(yīng)用,還有Python的API層,基本上其它框架主要也是Python。最底層就是跟硬件打交道的,還有XLA、TVM這些編譯器。
中間兩層是OneFlow和其他框架差別比較大的地方,分別是編譯層和執(zhí)行層。編譯層其實就是靜態(tài)調(diào)度的實現(xiàn),執(zhí)行層就是計算圖的執(zhí)行。
CSDN:OneFlow框架的設(shè)計理念和技術(shù)創(chuàng)新是什么?
袁進輝:架構(gòu)是為目的服務(wù)的。我們最大的追求是降低用戶使用多機多卡的難度,提升這方面的用戶體驗。
但不幸的是,目前的框架只解決這個需求里最簡單的部分,也就是數(shù)據(jù)并行。如果神經(jīng)網(wǎng)絡(luò)模型參數(shù)量本身不大的話,現(xiàn)在所有框架都能有比較滿意的結(jié)果,但后來又出現(xiàn)很多像Bert、GPT-3這種參數(shù)量巨大的新模型,以及超大規(guī)模的人臉識別,大規(guī)模廣告推薦,這就需要支持參數(shù)分割的模型并行,模型運行在框架層面是一個非常挑戰(zhàn)的難題,到今天絕大部分主流框架都沒有這個功能,即使定制之后能跑通,效率也很慘,滿足不了工業(yè)級需求。
另外,就是要解決編程效率問題,怎么讓多機多卡分布式編程更容易,也是OneFlow多機多卡體驗的一部分。
為了滿足這個目的,OneFlow趟出了一條其他框架還沒有走的路,也就是靜態(tài)調(diào)度和流式執(zhí)行。
CSDN:靜態(tài)調(diào)度和流式執(zhí)行怎么解決問題的?
袁進輝:這跟深度學習算法和異構(gòu)計算特點相關(guān)。深度學習的任務(wù)負載特征跟以前Haddop,Spark面臨的計算不一樣。以前很多任務(wù)是批式處理,處理整體數(shù)據(jù),計算粒度很大,但深度學習是隨機梯度下降算法,是非常多小粒度的計算構(gòu)成,接近流式計算,大數(shù)據(jù)系統(tǒng)里的Flink、Storm也是流式系統(tǒng),與那些批式處理系統(tǒng)不一樣。
底層支撐硬件也不一樣,深度學習包含大量稠密計算,非常適合高度并行的加速卡,廣泛地依賴于異構(gòu)計算,既有CPU也有加速卡,不是以前的純CPU集群,GPU等加速器處理更快。所以,每一片任務(wù)過來,都是百毫秒甚至在幾毫秒以內(nèi)差不多就完成了。
一個作業(yè)重包含數(shù)十萬非常小的轉(zhuǎn)瞬即逝的任務(wù),每個任務(wù)粒度非常低,如果系統(tǒng)里面有一丁點不順暢,可能就成為整個系統(tǒng)的瓶頸,因為所有的小任務(wù)都需要等著調(diào)度器做決策。
怎么解決這個問題?我們的思路是根據(jù)深度學習本身的特點,發(fā)掘出調(diào)度規(guī)律,讓系統(tǒng)在計算發(fā)生之前提前得到很多調(diào)度的規(guī)律的和策略,這種情況下就能把所謂的運行時的那種額外的開銷就降到盡可能的低,幾乎降到可忽略不計,這就能克服異構(gòu)的流式計算里非常嚴峻的挑戰(zhàn)。
流式執(zhí)行是做什么?在這種任務(wù)里的多個卡之間頻繁的數(shù)據(jù)搬運,對整個計算任務(wù)來說也是一個非常顯著的開銷,那流式系統(tǒng)就能提前通過整體規(guī)劃,在每一次計算發(fā)生之前,就把所需要的數(shù)據(jù)參數(shù)都提前取到,通過流水線把數(shù)據(jù)搬運和計算做完全地重疊。如果是以前那種批式處理的大數(shù)據(jù)系統(tǒng),就沒法做到。
所以,OneFlow的思路就是做一個偏靜態(tài)調(diào)度和流式執(zhí)行的系統(tǒng)。
CSDN:針對多機多卡的問題,除了OneFlow提出的解決路徑,市面上其他框架怎么做的?
袁進輝:在多機多卡任務(wù)上,還有解決那些復雜的超大模型場景上的探索,整個行業(yè)是比較初級的。像PyTorch只關(guān)注易用性的話,重點都是在單卡上,即使做多卡也是最簡單的all reduce,調(diào)一下英偉達的NCCL庫就好。
因為近期有一些大模型出來,模型并行、流水并行的方式,整個行業(yè)才開始關(guān)注,包括google做的GPipe, Mesh-Tensorflow,還有華為MindSpore對這類模型進行探索,但大部分也僅僅是做一個插件,很難加入主干代碼,要實現(xiàn)正確且高效是非常難的。
不謙虛地說,在解決多機多卡問題上,其他框架和OneFlow可能是一兩年的差距。
CSDN:按你說的,多機多卡算是強需求,其他框架怎么一開始就沒考慮到這一點?
袁進輝:這是個好問題,有多方面的因素。一是大部分用戶沒有那么大規(guī)模的計算資源,有多機多卡的都是土豪,大部分用戶面臨的任務(wù)或場景還沒到多卡的規(guī)模;二是從模型發(fā)展的情況來說,超大模型趨勢是近期出現(xiàn)的,早期,大家的認知就是做數(shù)據(jù)并行就夠了,也不是那么難。
三是不同的團隊有不同策略,多機多卡屬于公認的技術(shù)難題,但摘果子的時候大家肯定先摘低垂的果子,所以有的框架可能先做最廣大用戶看中的一些東西,把多機多卡的優(yōu)先級往后移了,比如PyTorch一開始主打易用性,TensorFlow后來做多機多卡的加速比收益很低,很難用,但不妨礙它捕獲大量的用戶;四是,多機多卡需要GPU服務(wù)器之間有非常高速的帶寬,這需要一些特殊的軟件和硬件技術(shù),像支持RDMA的以太網(wǎng)等技術(shù)還有普及的過程。
CSDN:能支持超大模型,是OneFlow創(chuàng)業(yè)初期就有的判斷還是后期偶然的順勢而為?
袁進輝:這也是個很好的問題。這個判斷是創(chuàng)業(yè)初期就有的,但產(chǎn)生這個想法很具有偶然性。
有時候別人也問我,為什么你最先想到搞這種并行,我就回復,我提前預(yù)測到這是個剛需,是遲早會發(fā)生的事情,因為底層芯片中,單個芯片的計算力是有物理限制的,你必須通過互聯(lián)方式等才可能解決。
在2008~2011年在清華計算機系做博士后時,對使用機器學習方法理解人腦神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的形成感興趣。
2013年,我在微軟研究院,這時深度學習已經(jīng)熱起來,就想把我博士后的課題“理解神經(jīng)網(wǎng)絡(luò)為什么work”做下去,到現(xiàn)在這個問題還沒有令人滿意的理論結(jié)果,以及為什么CNN這種從人腦結(jié)構(gòu)中啟發(fā)得到的網(wǎng)絡(luò),在應(yīng)用上效果這么好?要研究這個理論味道十足的問題,那時就會面臨一個挑戰(zhàn),理解參數(shù)量巨大的神經(jīng)網(wǎng)絡(luò)背后的機制,其實計算空間參數(shù)量巨大。
這個問題我在微軟研究了一年,這種基于好奇心的研究又回到了計算的手段上。而當時的很多框架,要實現(xiàn)這種研究都不可能,這項研究只好無疾而終。我后面在微軟又做了主題模型LightLDA,是一個非常大規(guī)模的模型,我更加相信,框架不能僅僅停留在做CNN這種很小參數(shù)量的模型。2014年年底,那時TensorFlow還沒發(fā)布,我已經(jīng)開始想象未來的深度學習框架是什么樣。
后來,Caffe、TensorFlow發(fā)布后,仍然解不了我想要解決的巨大模型問題。所以,我還是要想辦法用一種技術(shù)或者架構(gòu)去設(shè)計出一個框架來支持大模型研究。
作為科學家,我有好奇心,就要竭盡全能去驗證,我不想因為工具的缺失,驗證不了一個idea。這就啟發(fā)我和團隊一直往這個方向去想,我們也去看別人框架怎么做,從歷史中去學習經(jīng)驗,包括硬件迭代、高性能網(wǎng)絡(luò)等等,最后不斷提煉,把路線走通。
CSDN:回到OneFlow框架整體的定位,它是一個首創(chuàng)了靜態(tài)調(diào)度和流式執(zhí)行架構(gòu)的ML框架,這個核心定位到今天開源有沒有發(fā)生過變化?
袁進輝:沒有,因為問題沒有變化。當時能想到的最好方法也就是這樣的,從那時到現(xiàn)在好幾年時間把幾十個關(guān)鍵難題打通,現(xiàn)在的確看到效果是符合預(yù)期的。
如果說有什么擴展的話。過去一兩年整個行業(yè)最大的變化就是PyTorch的崛起,應(yīng)該很少人都預(yù)計到它能通過易用性捕獲那么多用戶,當然,易用性背后也有動態(tài)執(zhí)行等一套技術(shù)支持,現(xiàn)在大家都這么搞了。所以在靜態(tài)調(diào)度和流式執(zhí)行外,OneFlow也補充了動態(tài)圖執(zhí)行的機制。
開發(fā)者上手門檻高不高
CSDN:OneFlow更多強調(diào)的是工業(yè)級落地,對學界的開發(fā)者支持力度怎么樣?
袁進輝:應(yīng)該說,學界開發(fā)者也是我們很重視的。首先,已經(jīng)提供了一些比較經(jīng)典的模型,單機單卡的使用體驗實事求是說和PyTorch有差距,但我認為會遲早追上。如果想用多機多卡或是單機多卡,OneFlow會很有優(yōu)勢,一個是效率的優(yōu)勢,一個是易編程的優(yōu)勢。
CSDN:開發(fā)者上手容易嗎?
袁進輝:我們努力把它做到上手體驗和其他框架差不多,但我們?yōu)榱颂嵘植际降囊子眯裕肓艘恍┬碌母拍睿赡苄枰_發(fā)者去了解、學習一下。當然,在單卡的情況下,和其它框架是差不多的,即使有差距我們也會更快補上。
CSDN:文檔寫得夠詳細嗎?
袁進輝:文檔分三個層次。一部分是API文檔,我們每個OP和TensorFlow、PyTorch幾乎是一樣的,而且即使有的地方?jīng)]有文檔,你看TensorFlow或PyTorch的文檔也夠了;還有用戶搭建模型的文檔,是比較全的;設(shè)計文檔涉及到代碼里面的架構(gòu),這是欠缺的,框架開源之后希望快速補上,我們會先放出一些比較high level的設(shè)計文檔。
CSDN:開源后,框架會如何優(yōu)化?
袁進輝:我們要做的事還真的蠻多。有模型庫的建設(shè),我們希望用戶最需要的那些模型都在OneFlow上有實現(xiàn),而且在業(yè)界有競爭力,還要做和其他框架的兼容,文檔的也要做。
還有一些比較深的技術(shù)難題,包括在框架和編譯器,非常動態(tài)的神經(jīng)網(wǎng)絡(luò),以及偏稀疏的網(wǎng)絡(luò)怎么能在OneFlow框架上支持。
CSDN:在支持上層應(yīng)用落地上,你們是做to B服務(wù),在場景落地和客戶的選擇上是否有優(yōu)先次序的篩選?
袁進輝:肯定有。OneFlow框架主打效率和擴展,特別是頭部的互聯(lián)網(wǎng)企業(yè)、AI企業(yè)就有這個需求,我們并不是從這類企業(yè)里面去掙錢,而是真的滿足它的需求,我們也愿意去做支持,希望能做成標桿客戶,純粹是為了增加OneFlow的應(yīng)用場景。
CSDN:開源后,商業(yè)化進程有沒有什么計劃?
袁進輝:框架要在整個平臺下面去做商業(yè)化,需要和很多其他的模塊系統(tǒng)配合,所以我們是有私有部署的解決方案,特別是傳統(tǒng)大型企業(yè)背后的算力中心需要整套解決方案,這可以作為近期商業(yè)服務(wù)收入,未來要向云服務(wù)發(fā)展。
百家爭鳴還是在向終局收斂
CSDN:你現(xiàn)在還能相對客觀的評價和總結(jié)一下,市面上其他主流框架的優(yōu)勢和不足嗎?
袁進輝:先聲明這是利益相關(guān)。我是遵從內(nèi)心,還是不得罪別人呢?
TensorFlow,我覺得是最好,編譯器、框架、 serving、 lite、可視化等都有,還有非常強大的算法科學家、應(yīng)用場景和工程團隊的支持,社區(qū)和生態(tài)非常強。不足之處是大而全,在任何一個單點上總能找到比它更好一點的框架,TensorFlow歷史包袱太重,系統(tǒng)太復雜,難以及時吸收框架技術(shù)的新突破。
PyTorch,它的優(yōu)勢也是它的缺點,整個架構(gòu)是為了解決易用性問題,技術(shù)較簡單,整個工程復雜度比較低,切中了用戶痛點,這是它的好處。不足之處在于,為未來特別是大規(guī)模需求考慮的不多,訓練出來模型之后進行部署時也比較困難。
MXNet,早期的時候?qū)嶋H上有很多好的想法,但缺乏一個非常清晰的主路線,很長時間沒有大的進步。
PaddlePaddle,完整度是很好的,在百度內(nèi)部強制使用,有實踐檢驗,但在技術(shù)上像跟隨者的角色,沒有突破和引領(lǐng)潮流。
MindSpore,團隊很強,做全棧AI的戰(zhàn)略上想得非常清楚,局部有技術(shù)創(chuàng)新,問題是對GPU的支持不足。
MegEngine,亮點是把訓練和推理一體化了,但這個團隊的基因是視覺,對自然語言處理、廣告推薦、強化學習等應(yīng)用的支持可能不在他們的視野之內(nèi)。
CSDN:你說過,在資源有限的情況下,做框架必須找到最正確的路徑才能做到又快又好,從百家爭鳴向終局收斂,現(xiàn)在是百家爭鳴還是說技術(shù)框架的技術(shù)已經(jīng)在收斂了?
袁進輝:我覺得是現(xiàn)在處于爭鳴和收斂的過程中,離終局可能還有兩年時間。
每一個框架上的生態(tài)就能像個黑洞一樣,外界有什么新的想法也都為自己所吸納。如果一個技術(shù)創(chuàng)新不是足夠大的話,這個想法就很容易被生態(tài)最強的框架吸過去。所以新框架必須與眾不同,這樣別人吸收你會非常困難,你也就有一個時間窗口能站穩(wěn),擁有一波鐵桿用戶,才可能發(fā)展壯大。
CSDN:收斂是不是意味著技術(shù)路線會走向同質(zhì)化?
袁進輝:是的,各個框架現(xiàn)在來說長得越來越像了,因為我看你這個想法好,也按照你的套路去做,所以競爭非常白熱化。我相信未來這個市場實際上會變成一個贏者通吃的局面。
CSDN:你說競爭到了白熱化,但總體來看,框架的數(shù)量是比較少的。
袁進輝:框架這個領(lǐng)域確實數(shù)量不多,因為復雜性和難度已經(jīng)攔住了很多人,有很多人覺得做框架沒有勝算,他就不會來做這個事,所以但凡進來的都是強者。
CSDN:OneFlow會成為其中一個贏家嗎?
袁進輝:原來是TensorFlow一家獨大,PyTorch的出現(xiàn)造成各占百分之四五十的市場,我們相信OneFlow可以逐漸站住腳,先實現(xiàn)三分天下,甚至可以再進一步,我們有這個信心。
CSDN:有人說,開發(fā)者對于訓練和推理這兩個維度的關(guān)注點不一樣,在訓練時更關(guān)注效率,推理時更關(guān)注低功耗,所以訓練和推理可能會分化出兩大框架市場,你同意嗎?
袁進輝:肯定同意。訓練有兩個維度很重要,一個是易用性,研究員要快速的把自己的idea變成product,PyTorch是這個特點,另一個是擴展性,可以不計成本訓練比較大規(guī)模模型。但是,在端上要考慮非常受限的場景,要考慮到端側(cè)算力弱,功耗要求苛刻,這一定要是非常輕量的,甚至跑的模型都需要壓縮,訓練框架在端上都不work。雖然我剛才說贏者通吃,但在訓練和推理上可能還是會分化出兩套框架。
“從各個維度,他們都說不可能做成”
CSDN:OneFlow框架的研發(fā)經(jīng)歷了幾個階段?
袁進輝:把我們的技術(shù)設(shè)想跑通就花了快兩年時間,大約是2018年秋天;然后在這上面把經(jīng)典的模型,調(diào)到滿意的狀態(tài),又大概花了快一年的時間,主要是解決原來沒預(yù)計到的問題;骨架打造好之后,最近半年都在做易用性、文檔、模型庫等能力。
CSDN:之前你說今年第二季度會開源,但這個時間點明顯延后了,發(fā)生了什么?
袁進輝:我們原來是計劃一季度開源,那時曠視和華為也開源了,但我們發(fā)現(xiàn)他們模型豐富度有點單薄,會影響開源效果,為了做到一個比較令人滿意的狀態(tài),就再推遲了三、四個月。
CSDN:一個初創(chuàng)公司做框架,歷經(jīng)三年多才開源,最困難的階段是什么時候?
袁進輝:2018年的秋冬,那時已經(jīng)研發(fā)了一年半以上。創(chuàng)業(yè)者有個18個月魔咒的說法,也就是一年半沒看到希望,沒有正反饋,心態(tài)就會發(fā)生變化,會失去耐心。
我自己肯定非常堅定,但團隊里不是每一個人都這么堅定,長時間沒有正反饋,有一部分人信心和耐力到了極限,所以那個時間段,我又頂上去做了一段時間研發(fā)。同時,之前的融資也快花完了,那既是事實上的冬天,也是資本寒冬,公司處于瀕死邊緣,人員規(guī)模還做了收縮。
CSDN:哪個機構(gòu)解了OneFlow的燃眉之急?
袁進輝:快手,還有老股東。
CSDN:快手為什么會投,有戰(zhàn)略上的考慮嗎?
袁進輝:快手創(chuàng)始人宿華在種子輪就投了我們。我們當時和快手在同一棟樓,也經(jīng)常借他們的計算資源,所以知根知底,他們知道我們做的事是扎實的,是真的做出來了,只不過還差臨門一腳。
當然,快手本身的業(yè)務(wù)規(guī)模很大,也非常需要大規(guī)模機器學習基礎(chǔ)設(shè)施,這個需求是存在的,而且知道這個問題難度很大。
CSDN:當時,內(nèi)部和外部對你們最大的質(zhì)疑是什么?
袁進輝:質(zhì)疑有很多,從技術(shù)能力、生態(tài)逆轉(zhuǎn)各個維度去看,都認為我們是不可能做成。
CSDN:怎么面對這些質(zhì)疑?
袁進輝:信心必須靠理性,通過扎實的分析論證這個事情一定會發(fā)生,這個需求一定會發(fā)生。不管是誰解決這個需求,遲早會走到我們設(shè)想的這條路上來。那時,我們已經(jīng)走到這條路上了,而別人還沒有入手這個方向,我們有先發(fā)優(yōu)勢,可能是世界上最先搞定這個問題的團隊。
如果沒有這些理性分析,就的確會覺得很難,會者不難,難者不會。當我們把這個路子想通時,就是執(zhí)行的問題,只是說別人還不知道,別人看到也不相信,但對內(nèi)部的人來說,它的發(fā)生只是時間早晚的問題。
CSDN:現(xiàn)在所有的框架都在進步,而且其他企業(yè)的投入比OneFlow都要大,你說是因為堅定和信心,但從另一維度,是不是可以理解成你是相信開發(fā)者群體有著識別好產(chǎn)品的眼光?
袁進輝:的確。特別在開源的情況下,開發(fā)者可直接去做判斷和體驗,他能知道好壞,好的東西一定會得到認可。
CSDN:生態(tài)搭建在開源后的一兩年應(yīng)該比較重要,你們有沒有實質(zhì)性的初步規(guī)劃?
袁進輝:這屬于術(shù)的層面,包括策略、執(zhí)行還有營銷。最根本的還是兩點:一,開源社區(qū)里有價值的東西,一定會出頭;二,OneFlow本身的技術(shù)領(lǐng)先,這是我們非常堅定的。這兩點是前提,后面要解決的問題就是,通過一些手段告訴別人這是好東西。
CSDN:現(xiàn)在是做開源軟件最好的時候嗎?
袁進輝:開源背后有很深的話題,開源本質(zhì)是什么?怎么來的?傳播規(guī)律是什么?可談的東西特別多。回到問題本身,現(xiàn)在確實是一個很好的時間,現(xiàn)在出現(xiàn)了專門做開源,和云結(jié)合的蠻好的To B商業(yè)模式,國內(nèi)還有新基建的政策紅利。
CSDN:如果復盤一下,這三年來創(chuàng)業(yè)的最大感受是什么?
袁進輝:總的來說,在一些主要的事情上,沒有做錯什么。我們創(chuàng)業(yè),主要的矛盾都來自于在非常受限的資源下如何做好一件非常難的事情。在這種情況下,再高超的管理、運作策略也沒辦法,矛盾在這兒就是非常激烈。
所以,如果能解決資源問題,肯定幫助很大。解決這些困難,我本人也經(jīng)歷了一個成長的過程,知道怎么和資本打交道,怎么說服技術(shù)高手加入。
解決資源問題,首先,創(chuàng)業(yè)者自己要想明白,想通想透。說服自己,你只需要想很近的東西。但要說服更多的人來一起幫助你,你就必須想到底,因為別人看到創(chuàng)始人也沒想通,就沒信心。其次,創(chuàng)業(yè)者不僅要想通,而且要能說明白,怎么以非常好的故事講出來,得到別人認同。
CSDN:OneFlow終于開源了,最近心情怎么樣?
袁進輝:最激動的時刻在前面已經(jīng)發(fā)生了,當技術(shù)設(shè)想打通那一刻,看到效果了,那時最激動。現(xiàn)在其實比較平靜,感覺很多事情都在預(yù)計之內(nèi),一件件自然發(fā)生而已。
CSDN:要把OneFlow推給更多的開發(fā)者,對他們有什么想說的?
袁進輝:開發(fā)者群體蠻分化的,每位工作背景不同的人看重的點都不一樣,剛開始沒辦法讓所有的開發(fā)者滿意。我最想和開發(fā)者朋友說的是,我本人目力所及,OneFlow確實包含了非常美好、精妙的創(chuàng)新想法,非常希望大家可以去感受下。當然,如果你發(fā)現(xiàn)一些問題,也希望大家包容、反饋,我們會盡快修復。