機器學習(ml)是人工智能(ai)領(lǐng)域,其中計算機具有在不被明確編程的情況下進行學習的能力。存在不同類型的ml技術(shù),包括監(jiān)督學習技術(shù)、無監(jiān)督學習技術(shù)等。在監(jiān)督學習技術(shù)中,使用訓練數(shù)據(jù)來創(chuàng)建和訓練ml模型,其中訓練數(shù)據(jù)包括多個訓練實例,每個訓練實例包括輸入和對應于所述輸入的已知輸出。輸入可以包括一個或多個特征。作為訓練的一部分,被訓練的模型學習將訓練數(shù)據(jù)中的輸入映射到其對應的已知輸出的函數(shù)。在已經(jīng)使用訓練數(shù)據(jù)充分訓練了模型之后,所述模型然后可以用于對輸出未知的新輸入做出輸出預測。這通常被稱為推斷階段。使用監(jiān)督學習技術(shù)訓練的模型通常用于解決兩種類型的任務:分類任務或回歸任務。對于分類任務,作為訓練的一部分,模型學習將輸入映射到輸出值的函數(shù),其中輸出值來自離散類別集合(或類別標簽)。因此,在分類問題中,模型學習將輸入映射到離散類別集合中的類別中的一個或多個類別。對于回歸任務,模型學習將輸入映射到連續(xù)輸出值(例如,連續(xù)實數(shù))的函數(shù)。針對特定用例訓練典型模型。用例的實例包括確定(批準或拒絕)交易授權(quán)、標記欺詐交易、清算金額和延遲預測等。盡管模型可以使用關(guān)于同一交易、同一用戶、同一商家等的同一信息,但是所述模型針對每個用例單獨地構(gòu)建并且針對每個用例單獨地執(zhí)行。因為每個模型在幾乎不跨模型重復使用的情況下獨立開發(fā),所以成本增加并且計算資源沒有得到有效使用。因此,需要可以用于不同用例的單個模型。
背景技術(shù):
1、機器學習(ml)是人工智能(ai)領(lǐng)域,其中計算機具有在不被明確編程的情況下進行學習的能力。存在不同類型的ml技術(shù),包括監(jiān)督學習技術(shù)、無監(jiān)督學習技術(shù)等。在監(jiān)督學習技術(shù)中,使用訓練數(shù)據(jù)來創(chuàng)建和訓練ml模型,其中訓練數(shù)據(jù)包括多個訓練實例,每個訓練實例包括輸入和對應于所述輸入的已知輸出。輸入可以包括一個或多個特征。
2、作為訓練的一部分,被訓練的模型學習將訓練數(shù)據(jù)中的輸入映射到其對應的已知輸出的函數(shù)。在已經(jīng)使用訓練數(shù)據(jù)充分訓練了模型之后,所述模型然后可以用于對輸出未知的新輸入做出輸出預測。這通常被稱為推斷階段。
3、使用監(jiān)督學習技術(shù)訓練的模型通常用于解決兩種類型的任務:分類任務或回歸任務。對于分類任務,作為訓練的一部分,模型學習將輸入映射到輸出值的函數(shù),其中輸出值來自離散類別集合(或類別標簽)。因此,在分類問題中,模型學習將輸入映射到離散類別集合中的類別中的一個或多個類別。對于回歸任務,模型學習將輸入映射到連續(xù)輸出值(例如,連續(xù)實數(shù))的函數(shù)。
4、針對特定用例訓練典型模型。用例的實例包括確定(批準或拒絕)交易授權(quán)、標記欺詐交易、清算金額和延遲預測等。盡管模型可以使用關(guān)于同一交易、同一用戶、同一商家等的同一信息,但是所述模型針對每個用例單獨地構(gòu)建并且針對每個用例單獨地執(zhí)行。因為每個模型在幾乎不跨模型重復使用的情況下獨立開發(fā),所以成本增加并且計算資源沒有得到有效使用。
5、因此,需要可以用于不同用例的單個模型。
技術(shù)實現(xiàn)思路
1、本公開的實施例提供了用于通過生成單個經(jīng)預訓練的基礎模型來解決上述問題的系統(tǒng)、方法和設備,所述單個經(jīng)預訓練的基礎模型允許跨不同用例進行知識共享、以最小的資源參與容易地適應新用例以及更短的開發(fā)和部署周期。
2、本公開的實施例可以針對多個用例使用歷史訪問請求和其結(jié)果來生成基礎訓練數(shù)據(jù),并且使用基礎訓練數(shù)據(jù)來生成能夠預測針對所述多個用例的結(jié)果的單個基礎模型。所述基礎模型可以被進一步訓練以針對不同用例或新用例開發(fā)細化模型。
3、本公開的一些實施例包括由計算機系統(tǒng)的一個或多個處理器執(zhí)行的方法。從多個請求者接收對一個或多個資源的多個歷史訪問請求,所述多個歷史訪問請求中的每個歷史訪問請求包括關(guān)于所述歷史訪問請求的請求者的訪問信息、訪問上下文和所述歷史訪問請求的訪問狀態(tài)的訪問結(jié)果。使用所述多個歷史訪問請求來生成呈文本格式的基礎訓練數(shù)據(jù),呈所述文本格式的所述基礎訓練數(shù)據(jù)布置在多個請求者圖書中,其中所述多個請求者圖書中的每個請求者圖書對應于與所述多個請求者中的相應請求者的賬戶相關(guān)聯(lián)的歷史訪問請求集合并且包括多個段落,所述多個段落中的每個段落對應于所述集合中的相應歷史訪問請求并且包括訪問上下文和多個訪問狀態(tài)中與所述相應歷史訪問請求相關(guān)聯(lián)的訪問狀態(tài)的訪問結(jié)果。使用所述基礎訓練數(shù)據(jù)來訓練預定架構(gòu)的模型以生成基于段落的其它部分預測所述段落的一部分的基礎模型。獲得多個組圖書的標簽,所述多個組圖書中的每個組圖書包括來自所述多個請求者圖書中與同一實體相關(guān)聯(lián)的請求者圖書的段落,所述標簽指示包括在所述多個組圖書中的訪問請求的安全狀態(tài)。使用所述標簽和所述多個組圖書來生成分類訓練數(shù)據(jù)。使用所述分類訓練數(shù)據(jù)來對所述基礎模型執(zhí)行細化訓練,以生成分別對所述多個組圖書的安全狀態(tài)進行分類的細化模型。
4、下面詳細描述本公開的這些和其它實施例。例如,其它實施例涉及與本文所描述的方法相關(guān)聯(lián)的系統(tǒng)、裝置和計算機可讀介質(zhì)。
5、可參考以下詳細描述和附圖更好地理解本公開的實施例的性質(zhì)和優(yōu)勢。
1.一種由計算機系統(tǒng)的一個或多個處理器執(zhí)行的方法,所述方法包含:
2.根據(jù)權(quán)利要求1所述的方法,其中:
3.根據(jù)權(quán)利要求1所述的方法,其中所述多個段落中的每個段落含有關(guān)于一個訪問請求的生命周期的所述多個訪問狀態(tài)的信息。
4.根據(jù)權(quán)利要求1所述的方法,其中所述多個訪問狀態(tài)包括授權(quán)響應、清算、退款和欺詐。
5.根據(jù)權(quán)利要求4所述的方法,其中所述基礎模型是單個模型,所述單個模型被訓練以預測所述授權(quán)響應、所述清算、所述退款和所述欺詐的結(jié)果。
6.根據(jù)權(quán)利要求1所述的方法,其中所述多個請求者圖書中的每個請求者圖書與唯一標識符(id)相關(guān)聯(lián)。
7.根據(jù)權(quán)利要求6所述的方法,其中所述唯一id分別與所述多個請求者的主賬號(pan)相關(guān)聯(lián)。
8.根據(jù)權(quán)利要求7所述的方法,其中所述細化模型對與所述多個請求者相關(guān)聯(lián)的pan的安全狀態(tài)進行分類。
9.根據(jù)權(quán)利要求6所述的方法,其中所述細化模型對與所述多個組圖書相關(guān)聯(lián)的實體的安全狀態(tài)進行分類。
10.根據(jù)權(quán)利要求1所述的方法,其中所述預定架構(gòu)的所述模型是transformer模型。
11.一種計算機系統(tǒng),其包含: