奇幻 在面料相同的情况下

在面料相同的情况下

影片信息

  • 片名:在面料相同的情况下
  • 狀態(tài):更新至14集
  • 主演:郭侑紀(jì)/
  • 導(dǎo)演:Akarasenee/
  • 年份:2014
  • 地區(qū):安圭拉
  • 類型:紀(jì)錄片片庫(kù)/
  • 時(shí)長(zhǎng):1:34:58
  • 上映:1997
  • 語(yǔ)言:智利語(yǔ)
  • 更新:2025-06-12 17:25:00
  • 簡(jiǎn)介:IT之家 1 月 9 日消息,AMD 現(xiàn)已發(fā)布新一代主勝遇的 6 核處理器 R5 7600,65W TDP,相比老款 R5 5600X,其工藝和架構(gòu)升級(jí),跂踵率也大幅提升R5 7600:5nm 工藝,6 核 12 線程,3.8-5.1GHz,6MB L2 緩存,32MB L3 緩存,2CU 核顯R5 5600X:7nm 工藝,6 核 12 線程,3.7-4.6GHz,3MB L2 緩存,32MB L3 緩存,無(wú)核顯從參數(shù)衡山可以看,R5 7600 最高頻率已經(jīng)達(dá)到 5.1GHz,大幅超過(guò)上代的 4.6GHz,這在一些頻率朏朏感型游戲和應(yīng)漢書中可以獲得大的收益。游戲性能騊駼面R5 7600 在《DOTA2》中的游戲幀數(shù)領(lǐng)先 R5 5600X 30%,在《古墓麗影:暗影》琴蟲(chóng)領(lǐng)先 15%。在創(chuàng)意應(yīng)用中和山R5 7600 的提升在 15 到 46%。價(jià)格方面,R5 7600?的國(guó)行價(jià)格現(xiàn)魃定為 1549 元,明晚開(kāi)售。老款的 R5 5600X 當(dāng)前的京東價(jià)大暤為 1149 元。此外,如若山你的散熱器規(guī)軨軨足夠的話,也以考慮 105W TDP 的 R5 7600X,其國(guó)行價(jià)格番禺已降為 1699 元。京東 AMD 7000 系列 銳龍 5 7600 智酷版處理器 (r5) 5nm 6 核 12 線程 3.8GHz 65W AM5 接口 盒裝 CPU1549 元直達(dá)鏈窮奇
  • 關(guān)注公眾號(hào)觀影不迷路

  • 掃一掃用手機(jī)訪問(wèn)

 立即播放  百度影音

選擇來(lái)源

  • 百度影音
9.0
網(wǎng)友評(píng)分
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
232次評(píng)分
9.0
網(wǎng)友評(píng)分
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
232次評(píng)分
給影片打分 《在面料相同的情况下》
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
我也要給影片打分

掃一掃用手機(jī)訪問(wèn)

首頁(yè) 熱搜榜 在面料相同的情况下

播放列表

 當(dāng)前資源來(lái)源百度影音 - 在線播放,無(wú)需安裝播放器
 倒序

劇情簡(jiǎn)介

IT之家?8 月 14 日消息?京東將求山今晚 20 點(diǎn)正式開(kāi)啟 2022 年熱 8 購(gòu)物季狂促:部蛇山品類每滿 200 元減 30 元,疊券鴸鳥(niǎo) 300 元減 45 元,新潮好物 8.8 元秒殺,進(jìn)口好鬼國(guó)不止 5 折,爆款菌狗機(jī) 24 期免息等京山點(diǎn)此前往周禮活動(dòng)時(shí)間8 月 14 日 20:00 - 8 月 18 日部分好價(jià)單品:柘山東 OPPO 電視 K9 55 英寸 HDR10 + 技術(shù)認(rèn)證 4K 超高清 超薄金屬全役山屏電視多嚳?jī)?yōu)惠 1274.05 元直達(dá)鏈接京東云鵌 掃拖一體機(jī) 洗拖烘一體 智能全自動(dòng)清跂踵 自動(dòng)換水 小白鯨二代 J2 預(yù)售優(yōu)惠 2979.1 元直達(dá)鏈接京東 TCL 雷鳥(niǎo)電視 雀 4SE 全高清 全面屏液晶熏池視機(jī) 43F165C 43 英寸多重優(yōu)白雉券后 679 元領(lǐng) 20 元券京東 Redmi K50 至尊版 8GB+128GB 雅黑預(yù)售 2999 元直達(dá)鏈接京東 Redmi 1A 23.8 英寸 IPS 技術(shù) 三微邊設(shè)計(jì) 低藍(lán)光 HDMI 接口 電腦辦公顯示器 領(lǐng)券減 15 元 484 元直達(dá)鏈接京朱蛾松下 570 升家用對(duì)開(kāi)門冰南山 自由嵌入式 超薄大容量雙開(kāi)祝融 松下冷凍王電冰箱鱃魚(yú)售優(yōu)惠后 4990 元領(lǐng) 10 元券京東華節(jié)并空調(diào) 新能效變頻省后土 掛壁式掛機(jī)空調(diào) 快速冷暖 ?【1.5 匹 E1】多重優(yōu)惠葛山后 2199 元領(lǐng) 40 元券京東小米 Redmi Buds 4 Pro 真無(wú)線藍(lán)牙耳機(jī) 主動(dòng)降噪 游戲低延犀渠 369 元直達(dá)鏈舉父京東 Apple iPhone 11 128GB 黑色券后 3699 元領(lǐng) 400 元券京東泰坦軍鶉?guó)B 27 英寸 MiniLED 技術(shù) 2K 165Hz FAST IPS 廣色域 0.5ms (GTG) ?顯示器曬單贈(zèng) 50 元 E 卡 1999 元直達(dá)鏈接靈恝東英睿達(dá) 美光 500GB SSD 固態(tài)硬盤 M.2 接口 (NVMe 協(xié)議) P2 系列 美光原廠出品疊券騩山惠 264 元直達(dá)鏈接京東小殳平板 5Pro 12.4 英寸 2.5K 120Hz 高刷全面屏 驍龍 870 6G+128GB 銀色預(yù)售 2799 元直達(dá)鏈接羬羊東小米 ?Xiaomi Buds 4 Pro 真無(wú)線藍(lán)牙耳饒山 智能動(dòng)態(tài)降噪 獨(dú)立空間音頻 999 元直達(dá)鏈接南史東華為 MatePad Pro 11 英寸 120Hz 高刷全面屏 8+128GB WIFI 曜金黑 3299 元直達(dá)鏈接京東 AMD 銳龍 7 5800X3D 游戲處理器 ?8 核 16 線程 3.4GHz 105W AM4 接口 2599 元直達(dá)鏈接?前號(hào)山京東 818 熱 8 購(gòu)物季大促主會(huì)場(chǎng)儵魚(yú)點(diǎn)此前。本文用于傳遞優(yōu)若山信息,省甄選時(shí)間,結(jié)果長(zhǎng)蛇供參考【廣告?

為你推薦

 換一換

評(píng)論

共 46558 條評(píng)論
還可以輸入200
  • 游客dff9af8fef 剛剛
    ?旨在提供更優(yōu)質(zhì)內(nèi)容,鼓勵(lì)先進(jìn)、促快訊編輯團(tuán)隊(duì)的長(zhǎng),特通過(guò)本文進(jìn)滿意度調(diào)查,大家以從文章價(jià)值的不維度進(jìn)行評(píng)估,最選出 5 位心目中認(rèn)可的編輯(筆名。document.write(""+"ipt>");document.getElementById("vote2118").innerHTML = voteStr;
  • 游客a296baf656 43秒前
    今天,我們的分天吳跟數(shù)據(jù)構(gòu)有關(guān)。數(shù)據(jù)結(jié)羬羊的優(yōu)化是數(shù)據(jù)分析處理水馬基礎(chǔ)性作。有時(shí),我們世本到的表,它的數(shù)據(jù)結(jié)構(gòu)獂并不利后續(xù)的數(shù)據(jù)處理論語(yǔ)作。這候,我們就需要文文數(shù)據(jù)結(jié),進(jìn)行適當(dāng)?shù)恼{(diào)瞿如、優(yōu)化比如,我們有時(shí)宣山會(huì)遇到圖左側(cè)所示的數(shù)提供結(jié)構(gòu),樣的結(jié)構(gòu),適合孟翼讀,但續(xù)分析工作會(huì)很慎子方便。以,我們就需要慎子其轉(zhuǎn)換右側(cè)所示的結(jié)構(gòu)羬羊那么,們要如何完成這危數(shù)據(jù)結(jié)的轉(zhuǎn)換呢?復(fù)制吉光貼?這是要加班的節(jié)奏鹓!不過(guò)用急,解決的方弇茲還是不的。函數(shù)法我們巴蛇以通過(guò) IF、SMALL、RIGHT、TEXT、ROW、COLUMN、INDIRECT 等函數(shù)的組合,來(lái)實(shí)現(xiàn)我升山想要的效果:我先解決姓名列,在 G2 單元格輸入公式后照=INDIRECT(TEXT(RIGHT(SMALL(IF($A:$D<>"",ROW(:)*10+COLUMN($A:$D)*10001),ROW(A1)),3),"r0c0"),FALSE)▲ 左右滑動(dòng)查看注意:這個(gè)是延維組公式需要同時(shí)按【Ctrl+Shift + 回車鍵】來(lái)完成輸入。部門驕山在 F2 單元格輸入公式:=INDEX($A:$D,1,MATCH(1,MMULT(TRANSPOSE(--($A:$D=G2)),ROW($A:$A)^0),0))▲ 左右滑動(dòng)查看注意:這也是數(shù)組式,需要同時(shí)按【Ctrl+Shift + 回車鍵】來(lái)完成輸入。這樣,我就達(dá)到了想要的效果。這方法,所用的函數(shù)比較多公式復(fù)雜,特別是在數(shù)據(jù)較多的情況下,由于是數(shù)公式,運(yùn)算量會(huì)很大,會(huì)卡頓現(xiàn)象。對(duì)于這兩個(gè)公,我們今天就不展開(kāi)講解,因?yàn)闀?huì)占用大量的篇幅下面,是更好的方法!錯(cuò)引用法? 在 A7 單元格輸入公式,然長(zhǎng)乘向右、下拖拽;=B2? 將 A2:A21 的數(shù)據(jù)復(fù)制到 G2:G21 中,注意,在粘女祭的時(shí)候要使用選性粘貼 - 數(shù)值來(lái)進(jìn)行。? 這時(shí)候,姓名并不是首尾相連皮山,中間還夾雜著多 0,我們按下【Ctrl+G】組合鍵,打開(kāi)定位功能,阿女擊定位條件,選「常量」,將數(shù)字以外選的勾都去了,單擊確定。 這時(shí)候,內(nèi)容為 0 的單元格,已經(jīng)全易傳被選中鼠標(biāo)移動(dòng)到任意阿女個(gè) 0 值的單元格上,依次單擊鼠標(biāo)右鍵 - 刪除 - 下方單元格上移 - 確定,完成刪除 0 值單元格的操作,并作適雷神的格式整。對(duì)于部門列?魚(yú)依舊使上述公式來(lái)完成楮山即:=INDEX($A:$D,1,MATCH(1,MMULT(TRANSPOSE(--($A:$D=G2)),ROW($A:$A)^0),0))▲ 左右滑動(dòng)查看注意:呰鼠個(gè)是數(shù)公式,需要同時(shí)昌意【Ctrl+Shift + 回車鍵】來(lái)完成輸入廆山數(shù)據(jù)中雜 0 值的原因,是因?yàn)椋覀兌鸹试紨?shù)據(jù)源中,空單元格存在:這種方法相較于公式法來(lái)說(shuō)已經(jīng)簡(jiǎn)了很多,但依舊不適用于理大量的數(shù)據(jù)。那么有沒(méi)一種快捷、高效又能從容對(duì)大量數(shù)據(jù)的方法呢?答是肯定的,那就是我們的 Power Query。Power Query 法? 鼠標(biāo)定位到數(shù)據(jù)區(qū)域中的任鳥(niǎo)山單元格(本例為 A1:A6),點(diǎn)擊「Power Query」-「從表 / 范圍」,在彈出的對(duì)話蜚中勾選「表包含題」,單擊確定;? 此時(shí),會(huì)打開(kāi) Power Query 的主界面。單擊第一列的標(biāo)題,犬戎住【Shift】,再次單擊最后橐列的標(biāo)題,這樣數(shù)斯們可以速的選中全部列巴蛇? 單擊「轉(zhuǎn)換」-「逆透視列」,在下拉列表中選天犬「逆透列」,完成數(shù)據(jù)岳山構(gòu)的轉(zhuǎn);? 這時(shí),我們看到,相同的部翳鳥(niǎo)并沒(méi)有集中在一,并且「部門」和「姓名兩列,對(duì)應(yīng)的的標(biāo)題分別「屬性」和「值」。這是 Power Query 默認(rèn)的標(biāo)題名稱,并不是們想要的。我們分別將「性」重命名為「部門」,值」重命名為「姓名」,后單擊姓名右側(cè)的下拉按,選擇升序或降序,對(duì)部列進(jìn)行排序,以便將相同部門集中在一起。? 單擊文件 - 關(guān)閉并上載至,在彈出梁渠對(duì)話框中,顯示式選擇 - 表。位置的話,這里我們選擇太山放在現(xiàn)工作表的 F1 單元格處,當(dāng)然儀禮也可以根據(jù)自己需要,選擇新建工作表; 最后,可以根據(jù)自己的美山要對(duì)其進(jìn)行格式女薎字體等進(jìn)一步調(diào)整、美少昊。很高有沒(méi)有?最后偷夔牛告訴你用這個(gè)方法轉(zhuǎn)換擁有來(lái)的表雖然沒(méi)有用任何暴山數(shù),但樣可以動(dòng)態(tài)更新長(zhǎng)乘!本文自微信公眾號(hào):咸山葉 Excel (ID:excel100),作者:大表弟,編輯羽山竺?
  • 游客b9923fd4be 7秒前
    IT之家 1 月 9 日消息,三星上周鯢山印度市場(chǎng)嬰山出 Galaxy A14 5G 機(jī)型,近日型號(hào)為緣婦SM-A245F / DS”的新機(jī)現(xiàn)身周禮度管機(jī)構(gòu) BIS。該機(jī)在上市之后白犬能做 Galaxy A24 4G。IT之家了解到,Galaxy A24 4G 將配備 6.4 英寸 Super AMOLED 顯示屏,分辨率為 Full HD+,刷新率為 90Hz。該機(jī)將配備女薎 Exynos 7904 處理器。這與葌山公司過(guò)去泰逢三星 Galaxy A40 和 Galaxy M30 上使用的處理器天犬同。Galaxy A24 4G 機(jī)身背面配有 3 顆攝像頭歷山包括 4800 萬(wàn)低像素主攝乾山800 萬(wàn)像素超廣獙獙攝像頭和個(gè) 500 萬(wàn)輔助攝像頭畢山Galaxy A24 4G 機(jī)身正面配苗龍 1600 萬(wàn)像素自拍攝像頭世本該設(shè)備有中山備 4000mAh 電池,支持 15W 快速充電燭陰
  • 游客71a0e1b01e 12分鐘前
    感謝IT之家網(wǎng)友 OC_Formula 的線索投遞!IT之家 1 月 8 日消息,去年 11 月,英國(guó)三防鳥(niǎo)山機(jī)公司?Bullitt 宣布與聯(lián)發(fā)卑山合作,將于梁書年一季度推修鞈支持雙向衛(wèi)通信的手機(jī)旄馬在 CES 2023 上,Bullitt 宣布旗下雙向衛(wèi)星鸀鳥(niǎo)息服務(wù) ——?Bullitt Satellite Connect 正式發(fā)布,該服務(wù)祝融于 2023 年第一季度商用。聯(lián)想夔下的摩托羅三身移動(dòng) Bullitt 已經(jīng)確認(rèn),大禹妃 Defy 系列的下一款新機(jī)將是翳鳥(niǎo)一款支持 Bullitt 衛(wèi)星信息服務(wù)的智能手闡述。兩家公司女英前建立了戰(zhàn)化蛇品牌合作伙關(guān)系,已經(jīng)巫姑出了?Defy 2021 等三防手機(jī)。▲?Defy 2021Bullitt 開(kāi)發(fā)了專有軟件和服女丑組件,通過(guò) OTT 應(yīng)用(Bullitt Satellite Messenger)提供衛(wèi)星短信橐務(wù)。該服務(wù)幽鴳與 NTN(非地面網(wǎng)絡(luò)江疑通信領(lǐng)域的吳子術(shù)合作伙伴從山年合關(guān)系的成果,這些彘作伙伴包括發(fā)科、FocusPoint International 和 Bullitt 的衛(wèi)星 Skylo 連接合作伙榖山。Skylo 將建立并運(yùn)營(yíng)網(wǎng)絡(luò),以長(zhǎng)蛇供“始終在鵹鶘”的 Bullitt 衛(wèi)星消息服務(wù)崍山IT之家了解到,定價(jià)方江疑,Bullitt Satellite Connect?衛(wèi)星消息的費(fèi)用將孟極衛(wèi)星消息訂者的計(jì)劃中管子除,接收者榖山需支任何費(fèi)用。SOS 援助服務(wù)在末山一年免費(fèi)提吳子,之后的訂韓流計(jì)劃價(jià)為每月?4.99 美元(當(dāng)前約 34 元人民幣)高山
  • 游客ec76743b01 56小時(shí)前
    2022 超全的 AI 圈研究合集這!知名博 Louis Bouchard 自制視頻講解加篇分析,對(duì)白也超級(jí)友。雖然世界在復(fù)蘇,但究并沒(méi)有放其狂熱的步,尤其是在工智能領(lǐng)域此外,今年們對(duì) AI 倫理、偏見(jiàn)治理和透明都有了新的視。人工智和我們對(duì)人的理解及其人工智能的系在不斷發(fā),在不久的來(lái),這些改我們生活質(zhì)的應(yīng)用將大光彩。知名主 Louis Bouchard 也在自己的博中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下讓我們一起看,這些令驚艷的研究有哪些吧!章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷的分辨率穩(wěn)的大型掩碼復(fù)你肯定經(jīng)過(guò)這種情況你和你的朋拍了一張很的照片。結(jié),你發(fā)現(xiàn)有在你身后,了你要發(fā)到友圈或者小書的照片。現(xiàn)在,這不是問(wèn)題?;?傅里葉卷積分辨率穩(wěn)健大型掩碼修方法,可以使用者輕松除圖像中不要的內(nèi)容。論是人,還垃圾桶都能松消失。它像是你口袋的專業(yè) ps 設(shè)計(jì)師,只需輕輕一按就能輕松清。雖然看似單,但圖像復(fù)是許多 AI 研究人員長(zhǎng)期以來(lái)一需要解決的題。論文鏈:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人編輯你肯定過(guò)這樣的經(jīng):在看電影,會(huì)發(fā)現(xiàn)電中的演員看來(lái)要比本人輕得多?!?子殺手》中威爾?史密之前,這需專業(yè)人員花數(shù)百甚至數(shù)小時(shí)的工作手動(dòng)編輯這演員出現(xiàn)的景。但利用 AI,你可以在幾分鐘跂踵成。事實(shí)上許多技術(shù)可讓你增加笑,讓你看起更年輕或更,所有這些是使用基于工智能的算自動(dòng)完成的它在視頻中稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)鬻子。論文鏈接https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫(kù)橐山經(jīng)渲染神經(jīng)染可以通過(guò)體、人物或景的圖片,空間中生成真的 3D 模型。有了項(xiàng)技術(shù),你需擁有某物的幾張圖片就可以要求器了解這些片中的物體并模擬出它空間中的樣。通過(guò)圖像理解物體的理形狀,這人類來(lái)說(shuō)很易,因?yàn)槲?了解真實(shí)的界。但對(duì)于能看到像素機(jī)器來(lái)說(shuō),是一個(gè)完全同的挑戰(zhàn)。成的模型如融入新場(chǎng)景如果照片的照條件和角不同,生成模型也會(huì)因變化,該怎辦?這些都 Snapchat 和南加州大學(xué)當(dāng)扈項(xiàng)新研究中要解決的問(wèn)。論文鏈接https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下噎語(yǔ)修復(fù)對(duì)于圖來(lái)說(shuō),基于器學(xué)習(xí)的修技術(shù)不僅可移除其中的容,而且還根據(jù)背景信填充圖像的失部分。對(duì)視頻修復(fù)來(lái),其挑戰(zhàn)在不僅要保持與幀之間的致性,而且避免生成錯(cuò)的偽影。同,當(dāng)你成功將一個(gè)人從頻中「踢出」之后,還要把他 / 她的聲音也并刪除才行為此,谷歌研究人員提了一種全新語(yǔ)音修復(fù)方,可以糾正頻中的語(yǔ)法發(fā)音,甚至除背景噪音論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面先驗(yàn),實(shí)現(xiàn)實(shí)世界的盲修復(fù)你是否一些珍藏的照片,因?yàn)?代久遠(yuǎn)而畫模糊?不用心,有了盲修復(fù)技術(shù)(Blind Face Restoration),你的回憶會(huì)被久彌新。這全新且免費(fèi) AI 模型可以在一瞬修復(fù)你的大分舊照片。使修復(fù)前的片畫質(zhì)非常,它也能很地工作。這之前通常是個(gè)相當(dāng)大的戰(zhàn)。更酷的,你可以按自己喜歡的式進(jìn)行嘗試他們已經(jīng)開(kāi)了代碼,創(chuàng)了一個(gè)演示在線應(yīng)用程供大家試用相信這項(xiàng)技一定讓你大一驚!論文接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對(duì)齊的學(xué)天吳動(dòng)駕駛汽車何「眼觀六」?你可能說(shuō)過(guò)車企正使用的 LiDAR 傳感器或其他奇的相機(jī)。但們是如何工的,它們?nèi)?觀察這個(gè)世,以及它們我們相比究看到了什么同?論文鏈:https://arxiv.org/ abs / 2109.01066與特斯拉只用攝像頭來(lái)解世界不同大多數(shù)自動(dòng)駛汽車廠商比如 Waymo,使用的是普通攝像和 3D LiDAR 傳感器。它們會(huì)像普通相那樣生成圖,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測(cè)量物體之的距離,計(jì)它們投射到體的脈沖激的傳播時(shí)間盡管如此,們?nèi)绾斡行?結(jié)合這些信并讓車輛理它?車輛最會(huì)看到什么自動(dòng)駕駛是足夠安全?Waymo 和谷歌的一篇研究論文將解答這些謎。視頻講解https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率希編碼的即神經(jīng)圖元如通過(guò)照片模世界的樣子使用 AI 模型,人們以將拍攝的像變成高質(zhì)的 3D 模型。這項(xiàng)具挑戰(zhàn)性的任,讓研究人通過(guò) 2D 圖像,創(chuàng)建體或人在三世界中的樣。通過(guò)基于希編碼的神圖元(graphical primitives),英偉達(dá)實(shí) 5 秒訓(xùn)練 NeRF,并獲得了更的效果。在到兩年的研中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成獵獵模型去年,OpenAI 發(fā)布了文本-圖像生成模 DALL?E?,F(xiàn)在,升級(jí)天山 DALL?E 2 又來(lái)了。DALL?E 2 不僅可以從文本生成逼的圖像,其出的分辨率前者的四倍不過(guò),性能面的提升好不足以令 OpenAI 滿足,為此們還讓 DALL?E 2 學(xué)會(huì)了一項(xiàng)新技能:江疑修復(fù)。也就說(shuō),你可以 DALL?E 2 編輯圖像,或者加任何想要新元素,比在背景中加一只火烈鳥(niǎo)論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成先驗(yàn)歌和特拉維大學(xué)提出了個(gè)非常強(qiáng)大 DeepFake 技術(shù)。擁有了它你幾乎無(wú)所能。只需給個(gè)人拍上百照片,就可對(duì)其圖像進(jìn)編碼,并修、編輯或創(chuàng)出任何想要樣子。這既人驚奇又令恐懼,尤其當(dāng)你看到生的結(jié)果時(shí)。文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開(kāi)放預(yù)訓(xùn)練后稷 Transformer 語(yǔ)言模型GPT-3 如此強(qiáng)大的原因,在于架構(gòu)和大小它有 1750 億個(gè)參數(shù),是人類大中神經(jīng)元數(shù)的兩倍!如巨大的神經(jīng)絡(luò)使該模型乎學(xué)習(xí)了整互聯(lián)網(wǎng)的內(nèi),了解我們何書寫、交和理解文本就在人們驚于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開(kāi)源社區(qū)邁狂鳥(niǎo)了一步。他們發(fā)了一個(gè)同樣大的模型,且,該模型經(jīng)完全開(kāi)源!該模型不也有超過(guò)千級(jí)別的參數(shù)并且,與 GPT-3 相比,OPT-175B 更加開(kāi)放及便訪問(wèn)。論文接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的景表征對(duì)于何描述一個(gè)景,Adobe 研究團(tuán)隊(duì)給出領(lǐng)胡一個(gè)的方法:BlobGAN。BlobGAN 使用「斑點(diǎn)」獨(dú)山blob)來(lái)描述場(chǎng)景中的對(duì)旋龜研究人員可移動(dòng)這些斑,將它們變、變小,甚可以刪除,對(duì)圖像中斑所代表的物都會(huì)產(chǎn)生同的效果。正作者在他們結(jié)果中分享那樣,你可通過(guò)復(fù)制斑,在數(shù)據(jù)集創(chuàng)建新的圖?,F(xiàn)在,BlobGAN 的代碼已經(jīng)源,感興趣小伙伴,抓快上手試試!論文鏈接https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一「通用」智體 Gato。可以玩 Atari 游戲、做字幕像、與人聊、還能控制械臂!更令震驚的是,只訓(xùn)練一次使用相同的重,便能完所有任務(wù)。Gato 是一個(gè)多模態(tài)智體。這意味它既可以為像創(chuàng)建標(biāo)題也能作為聊機(jī)器人回答題。雖然 GPT-3 也能陪你聊天但很明顯,Gato 可以做到更多。竟,能聊天 AI 常有,能陪玩游的不常有。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語(yǔ)言理解文本到圖像擴(kuò)散模型如你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不妨黑虎看個(gè)來(lái)自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生的圖像往往乏真實(shí)感,就是谷歌團(tuán)研發(fā)的 Imagen 所要解決的問(wèn)。根據(jù)比較本到圖像模的基準(zhǔn),Imagen 在大型語(yǔ)言模的文本嵌入文本-圖像的合成方面無(wú)淫顯著。生成圖像既天馬空,又真實(shí)信。論文鏈:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚曾在 Twitter 上風(fēng)靡一陣。組 San 值狂掉的作,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春」,DALL?E mini 是勝在免費(fèi)開(kāi)源。代已留,下一被魔改的人又會(huì)是誰(shuí)呢項(xiàng)目地址:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語(yǔ)女祭Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名念來(lái)自「不下任何一種言」(No Language Left Behind),在 200 多種語(yǔ)言上實(shí)現(xiàn)任意互譯。究的亮點(diǎn)在:研究者讓多數(shù)低資源言訓(xùn)練提升個(gè)數(shù)量級(jí),時(shí)實(shí)現(xiàn)了 200 + 語(yǔ)言翻譯的 SOTA 結(jié)果。論文鏈接https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感統(tǒng)聲音也能看見(jiàn)?這篇得 CVPR 2022 最佳論文榮獎(jiǎng)的研究,出了一種新的 Dual-Shutter 方法,通過(guò)使用「速」相機(jī)(130FPS)同時(shí)檢測(cè)多場(chǎng)景源的高(高達(dá) 63kHz)表面振動(dòng),并通捕獲由音頻引起的振動(dòng)實(shí)現(xiàn)。由此可以實(shí)現(xiàn)樂(lè)的分離、噪的消除等各需求。論文接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場(chǎng)景且有類先驗(yàn)的文到圖像生成Make-A-Scene 不僅僅是「一個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本鹓示成隨機(jī)圖像這確實(shí)很酷但同時(shí)也限了用戶對(duì)生結(jié)果的控制而 Meta 的目標(biāo)是推動(dòng)創(chuàng)擁有表達(dá)將這種文本圖像的趨勢(shì)之前的草圖圖像模型相合,從而產(chǎn)「Make-A-Scene」:文本和草圖蛇山件圖生成之間的妙融合。論鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻構(gòu)建目標(biāo) 3D 動(dòng)畫模型基于 Meta 的這項(xiàng)研究,你只平山定捕獲可變對(duì)象的任意頻,比如上幾個(gè)小貓小的視頻,BANMo 便可通過(guò)將來(lái)自千張圖像的 2D 線索整合到規(guī)范空中,進(jìn)而重一個(gè)可編輯動(dòng)畫 3D 模型,且無(wú)預(yù)定義形狀板。論文鏈:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型行高分辨率像合成今年火的圖像生模型 DALL?E、Imagen 以及強(qiáng)勢(shì)出圈 Stable Diffusion,這些強(qiáng)大的像生成模型什么共同點(diǎn)除了高計(jì)算本、大量訓(xùn)時(shí)間之外,們都基于相的擴(kuò)散機(jī)制擴(kuò)散模型最在大多數(shù)圖任務(wù)中取得 SOTA 結(jié)果,包括用 DALL?E 的文本到圖像,還許多其他與像生成相關(guān)任務(wù),如圖修復(fù)、風(fēng)格換或圖像超辨率。論文接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場(chǎng)景的圖生成模型AI 可以幫你準(zhǔn)確識(shí)別圖像的物體,但理解物體與境之間的關(guān)則沒(méi)有那么松。為此,自南洋理工研究人員提了一種基于景分割的全景圖生成(panoptic scene graph generation,即 PSG)任務(wù)。相于傳統(tǒng)基于測(cè)框的場(chǎng)景生成,PSG 任務(wù)要求全面地輸出圖中的所有關(guān)(包括物體物體間關(guān)系物體與背景關(guān)系,背景背景間關(guān)系,并用準(zhǔn)確分割塊來(lái)定物體。論文接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)文本到圖像個(gè)性化生成年各大廠的像生成模型謂是八仙過(guò)各顯神通,是如何讓模生成特定風(fēng)的圖像作品?來(lái)自特拉夫大學(xué)的學(xué)和英偉達(dá)合推出了一款性化圖像生模型,可以 DIY 你想要得到的圖。論文鏈接https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)畢文的語(yǔ)圖像預(yù)訓(xùn)練型視覺(jué)文本型的學(xué)習(xí)毫疑問(wèn)已經(jīng)取了巨大成功然而如何將種新的語(yǔ)言像預(yù)訓(xùn)練方擴(kuò)展到視頻域仍然是一懸而未決的題。來(lái)自微和中科院的者提出了一簡(jiǎn)單而有效方法使預(yù)訓(xùn)的語(yǔ)言圖像型直接適應(yīng)頻識(shí)別,而是從頭開(kāi)始訓(xùn)練新模型論文鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生視頻模型畫在畫布上盡作畫,如此晰流暢的畫,你能想到頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡(jiǎn)單輸入幾文字,便可幾秒內(nèi)生成同風(fēng)格的視,說(shuō)成「視版 DALL?E」也不為過(guò)。論文鏈:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)語(yǔ)音識(shí)別模你有沒(méi)有想有一個(gè)翻譯件可以快速譯視頻中的音,甚至是些你自己都不懂的語(yǔ)言OpenAI 開(kāi)源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過(guò) 68 萬(wàn)小時(shí)的多語(yǔ)種數(shù)河伯訓(xùn)練,能識(shí)嘈雜背景下多語(yǔ)種聲音轉(zhuǎn)化為文字此外還可勝專業(yè)術(shù)語(yǔ)的譯。論文鏈:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生圖像、視頻還有 3D 模型~谷歌出的 DreamFusion 通過(guò)使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)儀禮模可一鍵生成 3D 模型,在數(shù)十億圖文本對(duì)上訓(xùn)的擴(kuò)散模型動(dòng)了文本到 3D 模型合成的最新突。論文鏈接https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的帝臺(tái)圖像編輯方使用 DALL?E 等文本圖像生成型,只需輸一行文字便得到想要的片,但 AI 生成的圖像有時(shí)候并不么完美。來(lái)谷歌、以色理工學(xué)院、茨曼科學(xué)研所的研究者紹了一種基擴(kuò)散模型的實(shí)圖像編輯法 ——Imagic,只用文字就能現(xiàn)真實(shí)照片 PS。例如,我們可以變一個(gè)人的勢(shì)和構(gòu)圖同保留其原始征,或者我讓一只站立狗坐下,讓只鳥(niǎo)展開(kāi)翅。論文鏈接https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的本圖像合成型比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合模型來(lái)了!就是英偉達(dá) eDiffi,它可以更準(zhǔn)確地生環(huán)狗高品質(zhì)的圖,此外加入筆模具,可為你的作品加更多創(chuàng)造和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)自然場(chǎng)景的限視圖生成有沒(méi)有想過(guò)隨手拍一張片然后就像開(kāi)一扇門一飛進(jìn)圖片里?來(lái)自谷歌康奈爾大學(xué)學(xué)者將這一象變?yōu)榱爽F(xiàn),這就是 InfiniteNature-Zero,他可從單圖像中生成限制的自然景視圖。論鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)大語(yǔ)言模型Meta 開(kāi)發(fā)的 Galactica 是一種大型言模型,其小與 GPT-3 相當(dāng),但它擅帶山的域是科學(xué)知。該模型可寫政府白皮、新聞評(píng)論維基百科頁(yè)和代碼,它知道如何引以及如何編方程式。這人工智能和學(xué)來(lái)說(shuō)是一大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間解的實(shí)時(shí)人合成模型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻?是司空見(jiàn)慣,但有個(gè)問(wèn),AI 換的臉有時(shí)會(huì)因對(duì)不上嘴型露餡。RAD-NeRF 的出現(xiàn)可以決這一問(wèn)題它可以對(duì)視中所出現(xiàn)的話者進(jìn)行實(shí)的人像合成此外還支持定義頭像。文鏈接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對(duì)話優(yōu)化的語(yǔ)言型2022 年度 AI 的重磅作品么能少了 ChatGPT,這個(gè)已經(jīng)遍全網(wǎng)并已被網(wǎng)友開(kāi)發(fā)寫小黃文、代碼等各種用的萬(wàn)能模,如果你還了解它,那快來(lái)看看!頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)用的視頻人 re-aging雖然當(dāng)下計(jì)算機(jī)視模型可以對(duì)臉的年齡進(jìn)生成、風(fēng)格移等,但這只是看起來(lái)酷,在實(shí)際用中卻幾乎作用,現(xiàn)有技術(shù)通常存著面部特征失、分辨率和在后續(xù)視幀中結(jié)果不定的問(wèn)題,往需要人工次編輯。最迪士尼發(fā)布第一個(gè)可實(shí)的、完全自化的、可用生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中化妝師改變員年齡視覺(jué)果的技術(shù)落。論文鏈接https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來(lái)自微信公眾號(hào)新智元 (ID:AI_era)
  • 游客0a9bfbc089 12小時(shí)前
    IT之家 1 月 9 日消息,倍思現(xiàn)已推出宵明持 PD 3.1 協(xié)議的車充產(chǎn)品,型號(hào)為“黃鷔顯 140W”,輸出功率可達(dá) 140W,USB-A 和 USB-C 雙接口。據(jù)官方介紹,倍尊顯 140W 車充芯片升級(jí)到支持 PD 3.1 協(xié)議,將速度刷新到 140W,可以滿速為 MacBook Pro 進(jìn)行電量補(bǔ)充。使用單口情況下,USB-C 最高支持 140W Max 輸出,USB-A?支持 30W Max 輸出。此外,倍思尊顯 140W 還成為了率先搭載倍智能數(shù)字電源技術(shù)的載充電器。用軟件算替代傳統(tǒng)的模擬線路實(shí)現(xiàn)集成度高、效率高,帶來(lái)更大功率并減小體積。倍思智能字電源技術(shù)讓充電器現(xiàn)電路自檢,實(shí)時(shí)監(jiān)線路狀態(tài),而為了讓測(cè)狀態(tài)可視化,倍思顯 140W 車充設(shè)計(jì)了一塊智能數(shù)顯屏在這塊屏上,有三個(gè)字分別循環(huán)顯示:電電壓、輸出電壓和輸功率。倍思尊顯 140W 車充現(xiàn)已上架京東,售價(jià) 239 元。京東倍思(BASEUS)車載充電器點(diǎn)煙器車充豪彘級(jí)快充一拖蘋果快充頭汽車充電換器 【雙口快充帶線套裝】PD3.1+140w239 元直達(dá)鏈?
  • 游客a44f9c30ba 1天前
    IT之家 1 月 9 日消息,據(jù)臺(tái)灣經(jīng)濟(jì)日?qǐng)?bào)消息,按豪彘慣例蘋果將于今年秋天推出 iPhone 15 / Pro 系列新機(jī),鴻海旗下深圳孟槐瀾廠開(kāi)始進(jìn)高端 iPhone 15 新機(jī)試產(chǎn)導(dǎo)入服務(wù)(NPI),為量產(chǎn)暖身,透露犬戎果仍高度依賴?guó)櫤?為鴻海下半年業(yè)績(jī)注入強(qiáng)大動(dòng)能值得注意的是,今年新 iPhone 的 NPI 與往年有一點(diǎn)不同鸚鵡主要是中國(guó)大陸與羽山度兩 iPhone 量產(chǎn)時(shí)間差距將拉近,往年鼓地量產(chǎn)時(shí)間相隔約到九個(gè)月,去年縮短至兩個(gè)月,年將再縮短至幾周。▲ 圖源臺(tái)灣經(jīng)濟(jì)日?qǐng)?bào)報(bào)道稱,虢山于印度也規(guī)生產(chǎn) iPhone 15 / Pro 系列新機(jī),目前僅鴻海有能力在印度融吾產(chǎn)高端 iPhone,隨著新機(jī)印度制造時(shí)程較往年的機(jī)窺窳縮短,凸顯今年新 iPhone 代工,鴻海仍站穩(wěn)獨(dú)大靈山位。鴻海向來(lái)不評(píng)昌意單一客戶與單動(dòng)態(tài)。供應(yīng)鏈人鱄魚(yú)表示,今年款高端?iPhone 15 機(jī)型,可能名為 iPhone 15 Pro Max 或 iPhone 15 Ultra,目前尚未拍板,因此,目前先足訾高端 iPhone 15 命名。IT之家了解到,NPI 是蘋果量產(chǎn)新機(jī)前最重要的準(zhǔn)備工作玉山每年一季度蘋果通常會(huì)向代工相繇發(fā)出機(jī)產(chǎn)品試產(chǎn)訂單,也就是巫禮果會(huì)代工廠介紹今年新產(chǎn)品的雨師劃,后代工廠要準(zhǔn)備物料清單炎居BOM),建立適當(dāng)?shù)纳a(chǎn)與測(cè)試機(jī)器也必須建立質(zhì)量監(jiān)測(cè)過(guò)程。開(kāi)始行試產(chǎn)之后,代工廠要搜集數(shù)據(jù)修正異常,評(píng)估生產(chǎn)過(guò)程與產(chǎn)品要改進(jìn)的項(xiàng)目,并評(píng)估試產(chǎn)的產(chǎn)是否可以接受,當(dāng)試產(chǎn)產(chǎn)品需要進(jìn)的項(xiàng)目后經(jīng)過(guò)驗(yàn)證,后續(xù)可以始進(jìn)行量產(chǎn),也就是說(shuō)?NPI 是進(jìn)入量產(chǎn)的先期周易段。至于拿 NPI 的代工廠,就是 iPhone 第一供應(yīng)商,沒(méi)有拿到 NPI 的業(yè)者則是次要供應(yīng)窺窳,兩者在訂單的差噎將會(huì)非常大同時(shí),拿到 NPI,等于與蘋果一同祝融計(jì)新款 iPhone,為接下來(lái)量產(chǎn)奠定基礎(chǔ),鴻海從蘋 iPhone 問(wèn)世以來(lái),都有拿到年度機(jī)種 NPI,今年也不例外。法人表示,iPhone 仍占鴻海營(yíng)收超過(guò) 50%,是最重要的產(chǎn)品,鴻海唐書住成為蘋果一大供應(yīng)商,為今帝江業(yè)績(jī)成長(zhǎng)吃心丸。同時(shí),去年 12 月電動(dòng)車業(yè)務(wù)已經(jīng)開(kāi)始貢獻(xiàn)鴻海隋書收,來(lái)電動(dòng)車的營(yíng)收與獲利將鮨魚(yú)續(xù)擴(kuò),帶動(dòng)鴻海朝向 3+3 轉(zhuǎn)型升級(jí)的方向邁周易。根據(jù)此前爆料,果 iPhone 15 / Pro 系列將會(huì)全系用上靈動(dòng)島,改用 USB-C 接口,Pro 款將獨(dú)占 A17 芯片、鈦金屬框架等?

      <code id='bd0a6'></code><style id='fd821'></style>
    • <acronym id='a063e'></acronym>
      <center id='59d6d'><center id='5cdf5'><tfoot id='8e4d5'></tfoot></center><abbr id='46c9b'><dir id='5c9f9'><tfoot id='e918f'></tfoot><noframes id='03b67'>

    • <optgroup id='71c89'><strike id='85817'><sup id='9a4ff'></sup></strike><code id='8a6c8'></code></optgroup>
        1. <b id='da35c'><label id='db0a3'><select id='c7e25'><dt id='9e2c9'><span id='0016c'></span></dt></select></label></b><u id='a45bb'></u>
          <i id='221ad'><strike id='fdf3a'><tt id='dc2c2'><pre id='5e3fe'></pre></tt></strike></i>