殴美成人在线视频,亚州中文字幕,日韩精品视频大全,99久久亚洲精品,aa国产视频一区二区,天天爱夜夜,日韩夜精品精品免费观看

一種大型語(yǔ)音模型超低位訓(xùn)練后量化方法及系統(tǒng)

文檔序號(hào):42296510發(fā)布日期:2025-06-27 18:34閱讀:19來(lái)源:國(guó)知局

本發(fā)明涉及語(yǔ)音模型領(lǐng)域,尤其涉及一種大型語(yǔ)音模型超低位訓(xùn)練后量化方法及系統(tǒng)。


背景技術(shù):

1、現(xiàn)有的語(yǔ)音大模型(如whisper)因參數(shù)量龐大(如1.5b),面臨存儲(chǔ)和部署難題。訓(xùn)練后量化(ptq)無(wú)需重新訓(xùn)練即可壓縮模型,但現(xiàn)有方法在低于8位時(shí)性能急劇下降,尤其是對(duì)transformer架構(gòu)中普遍存在的權(quán)重異常值處理不足。傳統(tǒng)線性量化(如gptq)在超低位(如2位)下詞錯(cuò)率(wer)顯著升高,導(dǎo)致模型失效。此外,現(xiàn)有方法未針對(duì)語(yǔ)音模型的特性(如異常值集中分布)進(jìn)行優(yōu)化,限制了其實(shí)際應(yīng)用。

2、因此,本領(lǐng)域的技術(shù)人員致力于開(kāi)發(fā)一種大型語(yǔ)音模型超低位訓(xùn)練后量化方法及系統(tǒng)。根據(jù)異常值密度動(dòng)態(tài)調(diào)整量化位數(shù),優(yōu)化資源利用率;通過(guò)選擇性保留異常值,避免量化誤差,提升模型性能;確保量化模型的泛化能力。


技術(shù)實(shí)現(xiàn)思路

1、有鑒于現(xiàn)有技術(shù)的上述缺陷,本發(fā)明所要解決的技術(shù)問(wèn)題是語(yǔ)音大模型性能和精度下降問(wèn)題。

2、為實(shí)現(xiàn)上述目的,本發(fā)明提供了一種大型語(yǔ)音模型超低位訓(xùn)練后量化方法,包括以下步驟:

3、步驟1、權(quán)重矩陣預(yù)處理:提取權(quán)重矩陣并按列分組;

4、步驟2、k均值聚類(lèi)量化:對(duì)每列權(quán)重進(jìn)行k均值聚類(lèi),生成量化中心點(diǎn);

5、步驟3、異常值檢測(cè)與混合精度分配:根據(jù)異常值密度動(dòng)態(tài)分配量化精度;

6、步驟4、選擇性異常值保留:保留關(guān)鍵異常值為稀疏fp32格式;

7、步驟5、模型推理與性能評(píng)估:對(duì)量化后的模型進(jìn)行推理,評(píng)估性能。

8、進(jìn)一步地,所述步驟1包括以下步驟:

9、步驟1.1、權(quán)重提?。簭念A(yù)訓(xùn)練的大型語(yǔ)音模型中提取權(quán)重矩陣;

10、步驟1.2、列分組:對(duì)權(quán)重矩陣按列分組,每列作為獨(dú)立的量化組。

11、進(jìn)一步地,所述k均值聚類(lèi),將數(shù)據(jù)集劃分為個(gè)簇,簇內(nèi)數(shù)據(jù)相似性最大化、簇間差異性最大化。

12、進(jìn)一步地,所述步驟2包括以下步驟:

13、步驟2.1、中心點(diǎn)生成:對(duì)每一列權(quán)重,使用k均值聚類(lèi)算法生成聚類(lèi)中心點(diǎn);

14、步驟2.2、量化映射:將原始權(quán)重值量化為聚類(lèi)中心點(diǎn)索引;

15、步驟2.3、誤差優(yōu)化:更新未量化權(quán)重。

16、進(jìn)一步地,所述k均值聚類(lèi)算法包括以下步驟:

17、步驟2.1.1、初始化:隨機(jī)選擇個(gè)初始簇中心;

18、步驟2.1.2、分配:將每個(gè)數(shù)據(jù)點(diǎn)分配到最近的簇中心;

19、步驟2.1.3、更新:重新計(jì)算每個(gè)簇的中心點(diǎn);

20、步驟2.1.4、迭代:重復(fù)分配與更新步驟,直到簇中心不再顯著變化或達(dá)到最大迭代次數(shù)。

21、進(jìn)一步地,所述步驟2.3,使用gptq策略更新未量化權(quán)重。

22、進(jìn)一步地,所述步驟3,根據(jù)列級(jí)異常值密度動(dòng)態(tài)分配量化位數(shù):異常值密集列分配4位,其他列分配2位。

23、進(jìn)一步地,所述步驟4包括以下步驟:

24、步驟4.1、異常值篩選:在異常值密集列,保留前5%的異常值為稀疏fp32格式;

25、步驟4.2、權(quán)重恢復(fù):將稀疏fp32異常值與量化權(quán)重疊加,恢復(fù)原始權(quán)重分布。

26、進(jìn)一步地,所述步驟5包括以下步驟:

27、步驟5.1、模型生成:將量化后的權(quán)重矩陣與稀疏fp32異常值結(jié)合,生成低位模型;

28、步驟5.2、性能評(píng)估。

29、本發(fā)明還提供了一種大型語(yǔ)音模型超低位訓(xùn)練后量化系統(tǒng),包括權(quán)重矩陣提取模塊、k均值聚類(lèi)模塊、混合精度分配模塊、異常值保留模塊、模型推理模塊;

30、所述權(quán)重矩陣提取模塊,從預(yù)訓(xùn)練的大型語(yǔ)音模型中提取權(quán)重矩陣;

31、所述k均值聚類(lèi)模塊,對(duì)權(quán)重矩陣按列進(jìn)行k均值聚類(lèi),生成量化中心點(diǎn);

32、所述混合精度分配模塊,根據(jù)異常值密度動(dòng)態(tài)分配量化精度;

33、所述異常值保留模塊,保留關(guān)鍵異常值為稀疏fp32格式;

34、所述模型推理模塊,對(duì)量化后的模型進(jìn)行推理,評(píng)估性能。

35、現(xiàn)有超低位量化下模型性能?chē)?yán)重下降。本發(fā)明k均值聚類(lèi)非線性量化。本發(fā)明對(duì)權(quán)重矩陣按列分組,使用k均值算法生成聚類(lèi)中心點(diǎn),動(dòng)態(tài)分配量化值,減少分布不匹配導(dǎo)致的誤差。本發(fā)明在3位量化下,相較于全精度32位模型的性能,在librispeech測(cè)試集上詞錯(cuò)誤率(wer)僅增加0.03%,模型壓縮率達(dá)90.6%。

36、現(xiàn)有異常值導(dǎo)致量化精度損失。本發(fā)明混合精度分配策略。本發(fā)明根據(jù)列級(jí)異常值密度動(dòng)態(tài)分配量化位數(shù):異常值密集列分配高精度(4位),其他列分配低精度(2位)。本發(fā)明混合精度量化(2.1位)使詞錯(cuò)誤率(wer)較純2位降低57%(如librispeech測(cè)試集從14.04%降至6.04%)。

37、現(xiàn)有異常值量化后性能退化。本發(fā)明選擇性保留關(guān)鍵異常值為稀疏的全精度32位格式。本發(fā)明將異常值從量化過(guò)程中分離,保留為稀疏fp32矩陣,與量化權(quán)重疊加,避免關(guān)鍵信息丟失。本發(fā)明2.12位量化下,錯(cuò)誤率(wer)恢復(fù)至接近全精度水平(librispeech測(cè)試集2.19%vs全精度2.02%)。

38、本發(fā)明提出了一種基于k均值聚類(lèi)與混合精度分配的大型語(yǔ)音模型超低位訓(xùn)練后量化方法,具體步驟如下:

39、步驟1:權(quán)重矩陣預(yù)處理

40、對(duì)模型的權(quán)重矩陣進(jìn)行預(yù)處理,為后續(xù)的量化操作做準(zhǔn)備。確保量化操作在列級(jí)別進(jìn)行,減少跨列權(quán)重分布差異對(duì)量化的影響。

41、1.權(quán)重提?。簭念A(yù)訓(xùn)練的大型語(yǔ)音模型(如whisper-large-v3)中提取權(quán)重矩陣。

42、2.列分組:對(duì)權(quán)重矩陣按列分組,每列作為一個(gè)獨(dú)立的量化組。

43、在大型語(yǔ)音模型(如whisper、wav2vec2等)中,異常值(outliers)是影響量化效果的關(guān)鍵因素之一。異常值通常指權(quán)重矩陣中那些顯著偏離大多數(shù)權(quán)重分布的極值點(diǎn)。這些異常值在transformer架構(gòu)中尤為常見(jiàn),尤其是在注意力機(jī)制中,某些注意力頭的權(quán)重可能包含大量異常值。

44、1.異常值的分布特點(diǎn)

45、集中性:異常值往往集中在某些特定的列(即權(quán)重矩陣的某些列),而不是均勻分布在整個(gè)矩陣中。例如,在whisper模型中,90%的異常值可能僅集中在10%的列中。

46、重要性:這些異常值通常對(duì)模型的性能至關(guān)重要。量化過(guò)程中如果未能妥善處理這些異常值,會(huì)導(dǎo)致模型性能顯著下降。

47、2.列級(jí)別量化的必要性

48、減少跨列權(quán)重分布差異的影響:

49、如果對(duì)整個(gè)權(quán)重矩陣進(jìn)行全局量化(即不考慮列的分布差異),異常值的存在會(huì)導(dǎo)致量化中心點(diǎn)的分布不均勻。具體來(lái)說(shuō):

50、全局量化的缺點(diǎn):在全局量化中,異常值會(huì)“拉偏”量化中心點(diǎn)的分布,導(dǎo)致大多數(shù)正常權(quán)重的量化精度不足。例如,異常值的存在可能導(dǎo)致量化中心點(diǎn)集中在異常值附近,而忽略了大多數(shù)正常權(quán)重的分布。

51、列級(jí)別量化的優(yōu)勢(shì):通過(guò)按列進(jìn)行量化,可以針對(duì)每一列的權(quán)重分布獨(dú)立生成量化中心點(diǎn)。這樣,異常值密集的列可以分配更多的量化中心點(diǎn)(即更高的量化精度),而異常值較少的列則可以分配較少的量化中心點(diǎn)(即較低的量化精度)。這種列級(jí)別的量化策略能夠更好地適應(yīng)不同列的分布特點(diǎn),減少異常值對(duì)整體量化效果的影響。

52、3.列級(jí)別量化對(duì)異常值的處理效果

53、動(dòng)態(tài)適應(yīng)異常值分布:列級(jí)別量化能夠動(dòng)態(tài)適應(yīng)每一列的異常值分布。對(duì)于異常值密集的列,可以通過(guò)增加量化位數(shù)(如4位)來(lái)保留更多細(xì)節(jié);對(duì)于異常值較少的列,則可以使用較低的量化位數(shù)(如2位)以減少存儲(chǔ)開(kāi)銷(xiāo)。

54、減少量化誤差:由于異常值通常集中在某些列中,列級(jí)別量化能夠避免異常值對(duì)其他列的量化精度產(chǎn)生干擾。例如,在異常值密集的列中,量化中心點(diǎn)可以更好地捕捉異常值的分布,從而減少量化誤差;而在異常值較少的列中,量化中心點(diǎn)可以更好地?cái)M合正常權(quán)重的分布,進(jìn)一步提升量化效果。

55、步驟2:k均值聚類(lèi)量化

56、通過(guò)k均值聚類(lèi)生成量化中心點(diǎn),實(shí)現(xiàn)非線性量化。

57、1.中心點(diǎn)生成:對(duì)每一列權(quán)重w:,j,使用k均值算法生成2n個(gè)聚類(lèi)中心點(diǎn)cj。

58、2.量化映射:將原始權(quán)重值wi,j量化為最近的聚類(lèi)中心點(diǎn)索引q,即:

59、qi,j=argminqcj[q]-wi,j

60、3.誤差優(yōu)化:使用gptq策略更新未量化權(quán)重,進(jìn)一步減少量化誤差。

61、動(dòng)態(tài)中心點(diǎn)生成:根據(jù)權(quán)重分布動(dòng)態(tài)生成中心點(diǎn),避免線性量化在非均勻分布下的精度損失。

62、資源效率:在權(quán)重密集區(qū)域生成更多中心點(diǎn),稀疏區(qū)域減少冗余,優(yōu)化存儲(chǔ)利用率。

63、在2位量化下,量化后的whisper-large-v3模型在librispeech?test?clean測(cè)試集上的wer僅由2.02%增加至14.04%,顯著優(yōu)于傳統(tǒng)線性量化方法(2.02%->51.13%)。

64、k均值聚類(lèi)量化:

65、1.k均值聚類(lèi)量化概述

66、k均值聚類(lèi)量化是一種基于無(wú)監(jiān)督學(xué)習(xí)的非線性量化方法,通過(guò)動(dòng)態(tài)生成量化中心點(diǎn),顯著提升模型量化性能。其核心思想是利用k均值聚類(lèi)算法,將權(quán)重值劃分為k=2n個(gè)簇(n為量化位數(shù)),并將每個(gè)權(quán)重值映射到最近的簇中心點(diǎn),從而實(shí)現(xiàn)高效且精確的量化。

67、1.1k均值聚類(lèi)算法背景

68、k均值聚類(lèi)是一種經(jīng)典的無(wú)監(jiān)督學(xué)習(xí)算法,其目標(biāo)是將數(shù)據(jù)集劃分為k個(gè)簇,使簇內(nèi)數(shù)據(jù)相似性最大化、簇間差異性最大化。具體步驟如下:

69、1.初始化:隨機(jī)選擇k個(gè)初始簇中心。

70、2.分配:將每個(gè)數(shù)據(jù)點(diǎn)分配到最近的簇中心。

71、3.更新:重新計(jì)算每個(gè)簇的中心點(diǎn)(即簇內(nèi)所有數(shù)據(jù)點(diǎn)的均值)。

72、4.迭代:重復(fù)分配與更新步驟,直到簇中心不再顯著變化或達(dá)到最大迭代次數(shù)。

73、在量化任務(wù)中,k均值聚類(lèi)用于將權(quán)重矩陣中的權(quán)重值劃分為k=2n個(gè)簇,每個(gè)簇的中心點(diǎn)作為量化后的代表值。

74、2.k均值量化相比于均勻量化的性能優(yōu)勢(shì)

75、2.1非均勻分布適應(yīng)性

76、均勻量化缺點(diǎn):假設(shè)權(quán)重均勻分布,但實(shí)際場(chǎng)景(如transformer模型)常呈現(xiàn)長(zhǎng)尾特性,導(dǎo)致量化誤差集中于密集區(qū)。

77、k均值優(yōu)勢(shì):動(dòng)態(tài)調(diào)整中心點(diǎn)密度,在權(quán)重密集區(qū)生成更多中心點(diǎn),稀疏區(qū)減少冗余,降低整體誤差。

78、2.2異常值魯棒性

79、均勻量化問(wèn)題:異常值拉大量化范圍,壓縮正常權(quán)重分辨率(如librispeech實(shí)驗(yàn)中均勻量化wer增加51.13%)。

80、k均值策略:異常值被單獨(dú)聚類(lèi),避免干擾正常權(quán)重。結(jié)合gptq微調(diào),進(jìn)一步修正異常區(qū)域的量化誤差。

81、2.3動(dòng)態(tài)精度分配

82、混合精度支持:可為不同權(quán)重列分配不同量化位數(shù)。例如,關(guān)鍵層使用4位,非關(guān)鍵層使用2位,平衡性能與存儲(chǔ)。

83、硬件友好性:中心點(diǎn)索引存儲(chǔ)僅需log2k位,配合查表機(jī)制,計(jì)算效率接近均勻量化。

84、2.4實(shí)驗(yàn)效果驗(yàn)證

85、d為權(quán)重矩陣的維數(shù),i為權(quán)重矩陣在輸出維度的索引,j為權(quán)重矩陣在輸入維度的索引

86、量化精度:在whisper-large-v3模型中,2位k均值量化使librispeech的wer僅增加0.17%,而均勻量化導(dǎo)致模型失效(wer>50%)。

87、泛化能力:在common?voice等數(shù)據(jù)集上,k均值量化保持wer增加<1%,優(yōu)于均勻量化的非線性失真。

88、步驟3:異常值檢測(cè)與混合精度分配

89、根據(jù)異常值密度動(dòng)態(tài)分配量化精度,提升量化效果。

90、1.異常值檢測(cè):計(jì)算每列權(quán)重w:,j的異常值比例rj,公式為:

91、

92、其中,is?outlier(wi,j)定義為:

93、

94、2.混合精度分配:根據(jù)rj量化精度:

95、

96、動(dòng)態(tài)精度調(diào)整:根據(jù)異常值密度(由預(yù)先設(shè)定的超參數(shù)λ決定)動(dòng)態(tài)分配量化位數(shù),避免“一刀切”量化策略導(dǎo)致的性能損失。

97、資源優(yōu)化:在異常值稀疏列使用低精度,顯著減少存儲(chǔ)和計(jì)算開(kāi)銷(xiāo)。

98、在2.1位混合精度量化下,wer較純2位量化顯著降低。例如,量化后的whisper-large-v3模型在librispeech?test?clean測(cè)試集上的wer由14.04%降低至6.04。

99、步驟4:選擇性異常值保留

100、通過(guò)保留關(guān)鍵異常值為稀疏fp32格式,避免量化誤差,進(jìn)一步提升模型性能。

101、1.異常值篩選:在異常值密集列(rj>13%),保留前5%的異常值為稀疏fp32格式。

102、2.權(quán)重恢復(fù):將稀疏fp32異常值與量化權(quán)重疊加,恢復(fù)原始權(quán)重分布。

103、關(guān)鍵信息保留:通過(guò)選擇性保留異常值,避免量化過(guò)程中關(guān)鍵信息丟失。

104、稀疏存儲(chǔ)優(yōu)化:使用稀疏矩陣存儲(chǔ)fp32異常值,減少存儲(chǔ)開(kāi)銷(xiāo)。

105、在2.12位量化下,wer恢復(fù)至接近全精度水平。例如,量化后的whisper-large-v3模型在librispeech?test?clean測(cè)試集上的wer由6.04%降低至2.19%,與全精度模型的2.02%幾乎持平。

106、步驟5:模型推理與性能評(píng)估

107、對(duì)量化后的模型進(jìn)行推理,評(píng)估其性能,驗(yàn)證量化策略的有效性。

108、1.模型生成:將量化后的權(quán)重矩陣與稀疏fp32異常值結(jié)合,生成最終的低位模型。

109、2.性能評(píng)估:在多個(gè)數(shù)據(jù)集(如librispeech、common?voice等)上測(cè)試模型性能,記錄wer(word?error?rate)。

110、量化模型在多個(gè)數(shù)據(jù)集上wer增加小于1%,保持跨領(lǐng)域魯棒性。例如:

111、·在librispeech數(shù)據(jù)集上,wer為2.19%,較全精度模型僅增加0.17%。

112、·在common?voice數(shù)據(jù)集上,wer為11.92%,而傳統(tǒng)量化方法會(huì)令模型性能崩潰,wer高達(dá)210.94%。

113、本發(fā)明的k均值聚類(lèi)量化、異常值檢測(cè)與混合精度分配以及選擇性異常值保留三個(gè)步驟共同構(gòu)成了高效的量化策略。其核心優(yōu)勢(shì)在于:

114、1.動(dòng)態(tài)精度分配:根據(jù)異常值密度動(dòng)態(tài)調(diào)整量化位數(shù),優(yōu)化資源利用率。

115、2.關(guān)鍵信息保留:通過(guò)選擇性保留異常值,避免量化誤差,提升模型性能。

116、3.跨領(lǐng)域魯棒性:在多個(gè)數(shù)據(jù)集上wer增加小于1%,確保量化模型的泛化能力。

117、本發(fā)明為超低位量化提供了高效且靈活的解決方案,特別適合資源受限的邊緣計(jì)算場(chǎng)景。

118、本發(fā)明一種基于k均值聚類(lèi)與混合精度分配的大型語(yǔ)音模型超低位訓(xùn)練后量化系統(tǒng),具體包括以下必要部件:

119、部件1:權(quán)重矩陣提取模塊

120、從預(yù)訓(xùn)練的大型語(yǔ)音模型中提取權(quán)重矩陣。為量化操作提供原始權(quán)重?cái)?shù)據(jù)。

121、連接關(guān)系:與k均值聚類(lèi)模塊相連,提供輸入數(shù)據(jù)。

122、部件2:k均值聚類(lèi)模塊

123、對(duì)權(quán)重矩陣按列進(jìn)行k均值聚類(lèi),生成量化中心點(diǎn)。

124、連接關(guān)系:與權(quán)重矩陣提取模塊和混合精度分配模塊相連。

125、形狀:支持動(dòng)態(tài)生成2n個(gè)聚類(lèi)中心點(diǎn)。

126、原理:通過(guò)k均值算法優(yōu)化中心點(diǎn)分布,減少量化誤差。

127、部件3:混合精度分配模塊

128、根據(jù)異常值密度動(dòng)態(tài)分配量化精度。

129、連接關(guān)系:與k均值聚類(lèi)模塊和異常值保留模塊相連。

130、形狀:支持動(dòng)態(tài)調(diào)整量化位數(shù)(如2位或4位)。

131、原理:根據(jù)異常值比例rj分配精度,避免異常值對(duì)量化的負(fù)面影響。

132、部件4:異常值保留模塊

133、保留關(guān)鍵異常值為稀疏fp32格式。在2.12位量化下,wer恢復(fù)至接近全精度水平。

134、連接關(guān)系:與混合精度分配模塊和模型推理模塊相連。

135、形狀:支持稀疏fp32格式存儲(chǔ)異常值。

136、原理:將異常值從量化過(guò)程中分離,避免關(guān)鍵信息丟失。

137、部件5:模型推理模塊

138、對(duì)量化后的模型進(jìn)行推理,評(píng)估其性能。驗(yàn)證量化模型的實(shí)際性能。

139、連接關(guān)系:與異常值保留模塊相連,生成最終的低位模型。

140、本發(fā)明的技術(shù)方案通過(guò)以下步驟實(shí)現(xiàn):

141、1.權(quán)重矩陣預(yù)處理:提取權(quán)重矩陣并按列分組。

142、2.k均值聚類(lèi)量化:對(duì)每列權(quán)重進(jìn)行k均值聚類(lèi),生成量化中心點(diǎn)。

143、3.異常值檢測(cè)與混合精度分配:根據(jù)異常值密度動(dòng)態(tài)分配量化精度。

144、4.選擇性異常值保留:保留關(guān)鍵異常值為稀疏fp32格式。

145、5.模型推理與性能評(píng)估:對(duì)量化后的模型進(jìn)行推理,評(píng)估其性能。

146、本發(fā)明的系統(tǒng)包括權(quán)重矩陣提取模塊、k均值聚類(lèi)模塊、混合精度分配模塊、異常值保留模塊和模型推理模塊,各模塊通過(guò)數(shù)據(jù)流連接,協(xié)同完成量化任務(wù)。

147、其中,wer(word?error?rate):詞錯(cuò)率,用于評(píng)估語(yǔ)音識(shí)別模型的性能,數(shù)值越低表示性能越好。k均值聚類(lèi):一種無(wú)監(jiān)督學(xué)習(xí)算法,用于將數(shù)據(jù)點(diǎn)劃分為k個(gè)簇,每個(gè)簇由其中心點(diǎn)表示。fp32:32位浮點(diǎn)數(shù)格式,用于高精度數(shù)值表示。稀疏fp32:僅存儲(chǔ)非零值的fp32格式,用于高效存儲(chǔ)異常值。

148、本發(fā)明與現(xiàn)有技術(shù)相比較,具有如下顯而易見(jiàn)的實(shí)質(zhì)性特點(diǎn)和顯著優(yōu)點(diǎn):

149、1.技術(shù)優(yōu)勢(shì):支持超低位(2.12位)量化,模型壓縮率超過(guò)93%,適配邊緣設(shè)備存儲(chǔ)限制。

150、2.性能指標(biāo):在多個(gè)數(shù)據(jù)集(librispeech、commonvoice等)上wer增加小于1%,保持模型跨領(lǐng)域魯棒性。

151、3.生產(chǎn)實(shí)施:無(wú)需重新訓(xùn)練,3小時(shí)內(nèi)完成1b模型的量化(基于rtx4090?gpu),顯著降低部署成本。

152、4.通用性:適用于多種語(yǔ)音模型(如whisper、wav2vec2),擴(kuò)展性強(qiáng)。

153、以下將結(jié)合附圖對(duì)本發(fā)明的構(gòu)思、具體結(jié)構(gòu)及產(chǎn)生的技術(shù)效果作進(jìn)一步說(shuō)明,以充分地了解本發(fā)明的目的、特征和效果。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1