出版社如何選擇使用哪種大型語言模型(LLM)

在現代出版業中,越來越多的出版社開始嘗試使用生成式AI技術來構建產品及功能,如創建聊天機器人和數據分析。然而,這樣的嘗試需要出版社仔細評估哪些大型語言模型(LLM)最適合他們的需求。

整合便利性成為考量重點

根據幾位出版行業高層的說法,選擇合適的LLM時,其中一個最大的考量因素即是該模型能否輕鬆整合到公司現有的技術系統中。許多出版社傾向於選擇已與現有企業技術或內容授權協議的公司合作的LLM。

如某家出版社的發言人(拒絕透露真實姓名)表示,他們的公司並沒有嘗試多種不同的LLM,而是主要使用OpenAI的模型。這家公司與OpenAI有一項內容授權協議,而這項協議是他們在成功使用OpenAI的GPT模型構建聊天機器人後簽訂的。此後,該出版社繼續使用GPT進行其他需求,如生產力工具的開發等。

另一位出版主管也透露,他們主要在內部使用OpenAI的GPT模型,因為與OpenAI有內容合作關係。同時,還有一位出版行政主管表示,因為他們已經在使用微軟和Google的企業軟體,如Microsoft Office 365和Google Workspace,因此選擇了這些公司的LLM,因為更容易將它們整合到公司完整的開發生態系統中。

測試性能以確保價值

LLM必須在出版社的應用場景中能夠運行良好,這樣投入的時間和金錢才是值得的。例如,TheSkimm會對使用的模型進行並行測試,並比較它們的輸出,以確保符合品牌語氣和編輯標準。因為每個模型之間主要的差異表現在「語氣、風格和應用準確性」上。因此,對於語調和風格要求特別高的工作,TheSkimm會偏向使用更「柔和、自然語調」的模型。

成本考量也是重要因素

除了性能外,成本也是出版社選擇LLM時的重要考量因素之一。例如,Time雜誌的首席運營官Mark Howard指出,他也會考慮使用特定LLM的財務動機,例如是否參與未來產品開發的機會。

TheSkimm目前使用的是開源模型(如Meta的Llama和法國的Mistral)以及商業產品,包括Anthropic的Claude和OpenAI的GPT模型。該公司評估了支付私人LLM API費用與託管自己開源模型的潛在更具成本效益的選擇之間的「利弊」。

隨著模型的快速發展

LLM的技術隨著時間的不斷推進,許多區別變得不再明顯。隨著市場上的選擇不斷增加,各種模型在具體應用上的效能差異也不斷縮小,這使得選擇更具挑戰性。出版社需要全方位考慮整合便利性、內容和技術協作,以及內容授權等多方面因素。

最終,隨著技術的不斷發展,出版社和其他內容製造者可能會在選擇LLM及其應用的過程中發現更多的潛力,不僅能夠提高生產效率,還可以開創新的創作方式。總之,正如發言人所言:「在這快節奏的環境中,我們持續不斷地尋找最佳合拍的解決方案。」