Transformer 是 2017 年出現的一種深度神經網絡架構。它與更熟悉的 RNN 網絡(用于對序列數據建模)的不同之處在于,它們可以將一個對象——文本、視頻、圖像——作為一個整體來感知,而不是按順序分別,更好地理解內容并傳達主要含義。
人工智能
根據研究,Transformer 技術在自然語言處理(Natural Language Processing,NLP)中的應用最大,通過分析大量文本來訓練 AI 架構。這允許轉換器生成高精度文本,從而可以將它們用于會計計算、語義搜索以及翻譯不同語言的文本。
這項技術的出現顯著提高了 NLP 領域文字處理的質量標準,因為變形金剛對測試的理解已經接近這樣的水平,包括他們的情感色彩,迄今為止只有人類可以使用.
新 AI 架構的主要組成部分是注意力機制。在它的幫助下,轉換器專注于單個單詞并快速理解文本的一般本質。此外,這種處理方法允許最小化計算序列的重復(返回到同一段文本)。也就是說,Transformer 不會等到第一個處理步驟完成后才能進入下一個處理步驟 - 它并行分析整個對象,這顯著提高了提供結果的速度。
Transformer 的出現為 NLP 領域提供了突破,其使用不如計算機視覺領域廣泛。既然創新的 AI 架構可以寫詩寫代碼、新聞文章和財務報告,它的應用將不再局限于 IT 行業。
可以在外語學習、銀行部門、安全和電信以及任何客戶請求流量大的業務中使用轉換器 - 轉換器將能夠處理傳入的請求以準備響應。