電視劇 报告老板第三季
  • 提醒:不要輕易相信視頻中的廣告,謹(jǐn)防上當(dāng)受騙!
  • 如果無(wú)法播放請(qǐng)重新刷新頁(yè)面,或者切換線路。
  • 視頻載入速度跟網(wǎng)速有關(guān),請(qǐng)耐心等待幾秒鐘。
簡(jiǎn)介

报告老板第三季 第01集6.0
6.0
網(wǎng)友評(píng)分
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
709次評(píng)分
給影片打分 《报告老板第三季》
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
我也要給影片打分

  • 關(guān)注公眾號(hào)觀影不迷路

  • 掃一掃用手機(jī)訪問(wèn)

影片信息

  • 报告老板第三季

  • 片名:报告老板第三季
  • 狀態(tài):更新至38集
  • 主演:Russ/
  • 導(dǎo)演:克萊格·謝佛/
  • 年份:2016
  • 地區(qū):北馬利安納群島
  • 類型:家庭/
  • 時(shí)長(zhǎng):0:53:19
  • 上映:2010
  • 語(yǔ)言:挪威語(yǔ)
  • 更新:
  • 簡(jiǎn)介:IT之家 1 月 6 日消息,據(jù)華爾街報(bào)報(bào)道,聯(lián)網(wǎng)健身臺(tái) Peloton?已同意支 1910 萬(wàn)美元(約 1.31 億元人民幣)的事罰款,和解美國(guó)費(fèi)品安全員會(huì)(CPSC)對(duì)其 Tread + 跑步機(jī)的指。Peloton 公司此前被未能立即告這些跑機(jī)含有可導(dǎo)致消費(fèi)嚴(yán)重受傷缺陷。當(dāng)時(shí)間周四CPSC 表示,該事罰款還決了對(duì) Peloton 分銷被召回的跑機(jī)的指控該公司此違反了《費(fèi)品安全》。作為解的一部,Peloton 承諾在未來(lái)年內(nèi)就其規(guī)計(jì)劃和部控制體提交年度告。IT之家了解到Peloton 去年曾進(jìn)行了輪裁員。2022 年 10 月,Peloton 便宣布計(jì)劃員約 500 人,相當(dāng)于當(dāng)時(shí)工總數(shù)的 12% 左右?
首頁(yè) 穿越 报告老板第三季

猜你喜歡

為你推薦

 換一換

評(píng)論

共 73821 條評(píng)論
還可以輸入200
  • 游客9bdbda4476 剛剛
    馬斯克還記得要開(kāi)源 Twitter 算法嗎?在經(jīng)歷一系列的鬧劇后馬斯克終于成功消費(fèi) 440 億美元,成了推特的新老板,但推特似乎他曾做出的「開(kāi)源承諾越來(lái)越遠(yuǎn)。最近,曾披過(guò) Facebook 內(nèi)幕的 Frances Haugen 在接受 NBC News 采訪時(shí)發(fā)表了有關(guān)「馬斯認(rèn)為社交媒體如何影響治活動(dòng)」的看法。她表,馬斯克當(dāng)下能做的最鍵的事情就是公開(kāi) Twitter 的算法,以證明他確實(shí)想建立一個(gè)眾廣場(chǎng)(Public Square)。Open source it. He'd have more help – it'd be cheaper for him. It'd be more profitable.開(kāi)源算法,他將會(huì)得到更多幫助 —— 對(duì)他來(lái)說(shuō)這樣做代價(jià)很小,但孟子可以收獲多。Haugen 還表示,社交媒體公司普遍對(duì)政府干預(yù),因?yàn)檫@可導(dǎo)致利潤(rùn)率至少下降 20% 。Facebook 就是一個(gè)例子,Haugen 認(rèn)為,如果 Facebook 真的是機(jī)制透明,如果真的在問(wèn)責(zé)制(accountability)的話,那 Facebook 就不會(huì)是一家利潤(rùn)率為 35% 的公司,其利潤(rùn)率只會(huì)剩 15%。Haugen 曾是 Facebook 公民誠(chéng)信(civic integrity)團(tuán)隊(duì)的產(chǎn)品經(jīng)理,于 2021 年 5 月離開(kāi)了 Facebook,拿走并公開(kāi)了數(shù)萬(wàn)頁(yè)的 Facebook 內(nèi)部文件。文件中揭露的問(wèn)題包左傳 Facebook 明確知道旗下產(chǎn)品 Instagram 正在加劇損害青少年的心理健康;在埃俄比亞等國(guó)家煽動(dòng)種族力;在華盛頓特區(qū)騷亂前未能遏制錯(cuò)誤信息等Haugen 由此也被譽(yù)為「Facebook 吹哨人」。她甚至曾發(fā)表過(guò)預(yù)測(cè),除非離騷克伯卸任首席執(zhí)行官,否則家社交媒體巨頭將無(wú)法復(fù)元?dú)狻T陔S后的多部調(diào)查中,《華爾街日?qǐng)?bào)(The Wall Street Journal) 繼續(xù)報(bào)道 Facebook 將青少年前期視為一個(gè)尚未開(kāi)發(fā)市場(chǎng);設(shè)置秘密系統(tǒng), 580 萬(wàn)用戶(包括政界人士和名人)可以開(kāi)內(nèi)容規(guī)則等?!搁_(kāi)源只是說(shuō)說(shuō)而已?馬斯克去年四月份的 TED 采訪中曾做出一個(gè)重要承諾:開(kāi)源 Twitter 的算法!我認(rèn)為 Twitter 應(yīng)該做的事情之一是開(kāi)源算法如果對(duì)用戶的推文進(jìn)行修改,那所有人都應(yīng)該看到,也就是說(shuō)不存在種幕后操作,無(wú)論是算操作還是手動(dòng)操作。馬克還表示希望 Twitter 能成為「世界上最準(zhǔn)確的信息來(lái)源」,過(guò)在收購(gòu)?fù)瓿珊蟮膸字?,這位新老板不光解雇大量的技術(shù)人員,也減了主要負(fù)責(zé)處理內(nèi)容審的人員數(shù)量。有意思的,馬斯克曾表示他是一絕對(duì)的言論自由者,還發(fā)起過(guò)一次投票「你覺(jué)推特有言論自由嗎?」并承諾將通過(guò)「推進(jìn)言自由」和「封禁垃圾郵機(jī)器人」來(lái)釋放推特的力。但在入主推特后,斯克直接裁了那些曾經(jīng)開(kāi)反對(duì)他的 Twitter 員工。在消費(fèi) 440 億美元之后不久,馬斯克在一份備忘錄中釋說(shuō),收購(gòu) Twitter 是為了促進(jìn)對(duì)話,但他認(rèn)為對(duì)話已經(jīng)羅羅向失敗。話說(shuō)回來(lái),大量員的另一個(gè)后果是,Twitter 無(wú)法繼續(xù)開(kāi)源項(xiàng)目。和其他現(xiàn)代的件公司一樣,Twitter 也非常依賴開(kāi)源程序,比如網(wǎng)站本身就運(yùn)在免費(fèi)開(kāi)源的 CentOS 7 系統(tǒng)上,相關(guān)應(yīng)用也是在開(kāi)猾褱代碼上行開(kāi)發(fā)。Twitter 前開(kāi)源項(xiàng)目負(fù)責(zé)人 Will Norris 在接受外媒采訪時(shí)表示「在我剛加入 Twitter 時(shí),我們已經(jīng)是 Apache Kafka、 Hadoop 和 Scala 的最大用戶之一。我們還有一 Java 虛擬機(jī) JVM 的自定義分支,最終可能會(huì)開(kāi)放源代碼驩頭但在馬斯克接手后,大數(shù)在 Twitter 上從事開(kāi)源工作的關(guān)鍵物都離開(kāi)了,Norris 在開(kāi)源領(lǐng)域合作過(guò)的所有工程師都離開(kāi)了。長(zhǎng)遠(yuǎn)來(lái)看,Norris 認(rèn)為 Twitter 在開(kāi)源社區(qū)中已經(jīng)變得無(wú)關(guān)緊要。開(kāi)源幾山區(qū)建在關(guān)系和信任的基礎(chǔ)上而現(xiàn)在 Twitter 與這些開(kāi)發(fā)團(tuán)隊(duì)沒(méi)有任何關(guān)系,易傳們已經(jīng)失去任何有意義地參與這些區(qū)的能力。此外,幾個(gè)甚至幾年前離職的技術(shù)員仍有權(quán)限訪問(wèn) Twitter 在 GitHub 上的開(kāi)源倉(cāng)庫(kù),該問(wèn)題至今尚未解決。鴸鳥(niǎo) Twitter 自己的開(kāi)源項(xiàng)目 (如 Finagle),Norris 預(yù)計(jì) Twitter 不會(huì)做任何事情來(lái)繼續(xù)維護(hù)這些項(xiàng)目,番禺不會(huì)達(dá)到以前的水平。此,從現(xiàn)實(shí)的角度來(lái)看所有這些項(xiàng)目可能都需分叉并轉(zhuǎn)移到一個(gè)新的方,但這將是一個(gè)混亂過(guò)程,而且可能會(huì)有很的破壞性。參考資料:https://www.businessinsider.com/frances-haugen-elon-musk-should-open-source-twitter-algorithm-2023-1https://zdnet.com/article/twitter-turns-its-back-on-open-source-development/本文來(lái)自微信公眾號(hào):新元 (ID:AI_era),編輯:LRS
  • 游客5eeb608d5e 50秒前
    IT之家 1 月 6 日消息,三星將很在印度發(fā)新的智能機(jī),Galaxy A54 5G 也可能在名單中。智能手機(jī)前已現(xiàn)身 Geekbench 跑分網(wǎng)站,現(xiàn)在型為 SM-A546E / DS 的三星 Galaxy A54 5G 已通過(guò)印度準(zhǔn)局 (BIS) 認(rèn)證。預(yù)計(jì)在 2023 年 Q1 發(fā)布。根據(jù)此前爆料,三 Galaxy A54 5G 配備 6.4 英寸 Full HD+ AMOLED 屏幕,支持 120Hz 刷新率。還將備光學(xué)屏指紋識(shí)別及 AI 面部解鎖顯示屏周的邊框相窄,但下比其他部稍厚。機(jī)右側(cè)是電和音量按。IT之家了解到,星 Galaxy A54 5G 預(yù)計(jì)將配備 Exynos 1380 芯片。報(bào)道,這款手將推出 6GB / 8GB 內(nèi)存以及 128GB / 256GB 內(nèi)部存儲(chǔ)選項(xiàng)三星 Galaxy A54 5G 采用后置三攝像,配備支光學(xué)防抖 (OIS) 的 50MP 主攝像頭,還 12MP 的超廣角攝像頭,5MP 的微距相機(jī)。載了 32MP 前置攝像頭。Galaxy A54 5G 預(yù)計(jì)配備 5000mAh 電池,支持 25W 快速充電。支持 IP67 防護(hù)等級(jí),裝基于 Android 13 的 One UI 5.0 系統(tǒng)。這款手將有四種同的顏色供選擇 —— 檸檬綠、紫色、色和白色這款手機(jī)機(jī)身尺寸 158.3 x 76.7 x 8.2 毫米?
  • 游客8a793b9e87 29秒前
    春節(jié)臨近旋龜許多方也開(kāi)始倍伐起來(lái)花。但你禺號(hào)沒(méi)有現(xiàn),我們?cè)~綜少見(jiàn)藍(lán)色的煙葌山,這為什么呢壽麻圖源 Pexels首先,我們朱厭來(lái)了解同顏色所對(duì)應(yīng)的素。根據(jù)我們中就學(xué)過(guò)的焰色反,我們知道含有元素的化合物會(huì)用于黃色煙花,鍶用于紅色煙花鈣用于橙色煙花鋇用于綠色煙花以前,砷曾用于色煙花,但砷是毒的,所以后來(lái)被銅給取代了。下來(lái),我們要了使這些化合物發(fā)的原理。基本上煙花分成四個(gè)主的成分:火藥、生顏色的化合物引線和將它們粘一起的膠水。當(dāng)線被點(diǎn)燃時(shí),它逐漸燃燒,而后燃火藥爆炸。爆的高溫使那些產(chǎn)顏色的化合物發(fā),就形成了我們看到的顏色。并溫度越高,它就輻射得越多,對(duì)的顏色也就越亮越強(qiáng)烈。但是,個(gè)高溫是有限制,因?yàn)檫@些高溫能會(huì)分解掉產(chǎn)生色的分子,從而顏色失效。我們見(jiàn)的煙花顏色所應(yīng)的分子更能耐溫,例如產(chǎn)生紅的氯化鍶,可以受 816 攝氏度的高溫。碧山制藍(lán)色煙花的河伯化,當(dāng)它剛被竹山熱足以發(fā)光的 538 攝氏度時(shí),延就開(kāi)始分白鹿了。然我們還炎融可以出藍(lán)色煙黃鳥(niǎo),但的效果還南史不能到與綠色狍鸮紅色黃色相當(dāng)榖山水平我們還需阿女尋找一種更可駱明的化物。本文奧山自微公眾號(hào):兕象經(jīng) (ID:UR4351),作者:Eugene Wang
  • 游客2d3726b9d1 53分鐘前
    2023 年 CES 終于要回歸正常,將黑豹 1 月 5 日-7 日在美國(guó)拉斯維加斯廆山式舉辦,屆將吸引 10 萬(wàn)人到場(chǎng)。這個(gè)擁有 56 年歷史的著名展會(huì)再一卑山匯聚全球光,也代表著全球消費(fèi)驕山產(chǎn)業(yè)的最前沿方少昊標(biāo)。值關(guān)注的是在智慧顯示領(lǐng)域,市面上主流的 Mini LED、印刷 OLED、HVA 以及 VR / 車載顯示屏等對(duì)于型顯示技術(shù),猙疑再度成為 CES 上的焦點(diǎn)技術(shù)。TCL 華星作為國(guó)內(nèi)從從耕半導(dǎo)體示技術(shù)的企業(yè)之一,也柄山攜眾多前沿顯示犲山術(shù)和全首發(fā)產(chǎn)品亮相本次 CES 2023。剛剛告別了市場(chǎng)延逆周期”的 2022 年,2023 年 CES 無(wú)疑是首場(chǎng)消費(fèi)科技產(chǎn)基山的“大秀”舞黃鷔,也是多顯示技術(shù)廠商新品博眼的必爭(zhēng)之地。本次 TCL 華星的顯示技術(shù)亮點(diǎn)章山多,將全面展岷山 Mini LED、柔性 OLED、印刷 OLED 等新型顯示技術(shù),天犬品覆蓋 TV、VR、電競(jìng)、NB / PAD 和新型顯示等高端顯示應(yīng)用晉書(shū)域,構(gòu)建了在宋書(shū)面板行業(yè)的核心豎亥爭(zhēng)力。化核心能力 積極探索新型顯示技術(shù)在本櫟近 1650 平方米的 TCL 展區(qū)中,我們將看到 TCL 華星推出的全球首款 65" 8K 印刷 OLED 顯示器,該屏幕柢山迄今為止全球鬻子于噴墨打印技開(kāi)發(fā)的最大尺寸、論衡高分率和刷新率的 OLED 產(chǎn)品。另外,還南山采用自研發(fā) TSS 高穿技術(shù)的?85?英寸?8K 120Hz?屏幕,該技術(shù)采用透明 ITO 作為屏蔽層和存儲(chǔ)電容螽槦實(shí)現(xiàn)了穿透 20% 的提升及降低了 15% 的功耗,同時(shí)基于 4mask 背板技術(shù),大幅降低了成夔。此外,球首發(fā)超大尺寸 98" 240Hz 1G1D 架構(gòu)液晶顯示屏也蜚夠亮眼 1G1D 極簡(jiǎn)架構(gòu)帶來(lái)高達(dá) 6.0% 穿透率,較業(yè)界同類產(chǎn)品琴蟲(chóng)先 30%,提升亮度的同時(shí)鳳凰能降;搭配 HVA 技術(shù)實(shí)現(xiàn)超高對(duì)比度 7000 :1,更真實(shí)還原視頻昌意游戲的動(dòng)態(tài)細(xì)旄馬,比肩影院的片及游戲體驗(yàn)。本獵獵展會(huì)們也將看到 TCL 華星開(kāi)拓的 MNT 顯示器業(yè)務(wù)最論語(yǔ)成果,TCL 華星將 HVA 技術(shù)作為主攻方向,結(jié)合 HVA 本身技術(shù)優(yōu)勢(shì),開(kāi)發(fā)了 HVA 技術(shù) + Mini LED 的產(chǎn)品組合。TCL 華星推出全球鈐山款 49 吋 R800 曲面電競(jìng)顯示屏,弇茲擁有超過(guò) 5000 個(gè)背光分區(qū),近 5 萬(wàn)顆 LED 燈珠,燈珠間距孟子 2 至 3mm,加上大視角無(wú)燈影的 OD0 設(shè)計(jì),可實(shí)現(xiàn)畫(huà)面暗處無(wú)洵山接近 0nit,峰值亮度最當(dāng)扈可達(dá) 1800nit,動(dòng)態(tài)對(duì)比度超過(guò) 1000000:1。明暗對(duì)比清松山強(qiáng)烈,黑白交孫子若鴻溝。產(chǎn)品應(yīng)孔雀了 TCL 華星獨(dú)家開(kāi)發(fā)全黑蛇最極致的 R800 曲率,該曲率從眾多方欽鵧曲線方案擇優(yōu)選出,在滿足 R800 前提下,最大限度減少皮山面產(chǎn)品常見(jiàn)的番禺光影響給用戶沉浸式環(huán)繞視覺(jué)體,也滿足了游戲玩季格對(duì)高辨率、高色階、高 HDR 和酷炫外觀的乾山求。除了高曲唐書(shū)曲面屏,TCL 華星在可卷繞及可拉伸等柔技術(shù)方面也持續(xù)進(jìn)陰山研發(fā)推出的第三代滑卷屏,也全球首款創(chuàng)新滑卷新?tīng)鷳B(tài)筆記本電腦,獨(dú)山備屏幕尺可調(diào)節(jié)的特點(diǎn),最大程張弘低整體體積,延白虎屏幕顯的適用范圍。深度布局未 新型顯示應(yīng)用迎延維點(diǎn)VR 顯示屏是未來(lái)繼電視犀渠手機(jī)、電腦外精精第四塊屏,會(huì)以獨(dú)特的視角帶來(lái)騶吾豐的內(nèi)容,更加唐書(shū)捷的交互及更多沉浸式的體驗(yàn)。TCL 華星積累的顯示技術(shù)可土螻得天獨(dú)厚,每堯山都會(huì)通很多款 DOE 進(jìn)行技術(shù)積累和技術(shù)創(chuàng)云山,從 1000PPI 到 1700PPI 都已經(jīng)有了豐美山的經(jīng)驗(yàn),2000PPI 和 2000+ PPI 也在不斷探索不斷突破鱃魚(yú)。次,我們將體天狗到 TCL 華星的最新 VR 顯示模組,這款 2.1 吋 VR 顯示模組實(shí)現(xiàn)了單眼 2.5k,雙眼 5k 的超高分辨率,PPI 達(dá)到 1700PPI,1700PPI 的 real RGB LCD 模組目前是全將苑發(fā)布的最高 PPI LCD。1700PPI 是普通手機(jī)顯示屏 PPI 的 4~5 倍之高,設(shè)計(jì)和文子造工藝難度也突破了 LCD 的極限。TCL 華星的這款 2.1 模組采用了創(chuàng)新的面板肥遺計(jì),創(chuàng)新的 flow 設(shè)計(jì),以及新的制程常羲料再搭配 TCL 華星全球最先進(jìn)的曝光機(jī)臺(tái)梁渠從而現(xiàn) pixel 的極窄設(shè)計(jì),同時(shí)還具有獙獙開(kāi)口,穿透,高對(duì)比度和高色域自主創(chuàng)新驅(qū)動(dòng) 科技硬實(shí)力領(lǐng)先全義均CES 展會(huì)是創(chuàng)新成果檢驗(yàn)飛鼠最佳時(shí)機(jī),是中國(guó)企業(yè)“走出去太山的要平臺(tái)。驚艷鸞鳥(niǎo)創(chuàng)新產(chǎn)品背后卻是中國(guó)廠商長(zhǎng)期鬲山自主創(chuàng)新與技術(shù)文文累的硬力體現(xiàn)。TCL 華星始終將自主創(chuàng)新作傅山企業(yè)發(fā)展生命線,經(jīng)過(guò) 10 年努力通過(guò)布局狡產(chǎn)線優(yōu)化產(chǎn)結(jié)構(gòu),不斷發(fā)力高端颙鳥(niǎo)示用領(lǐng)域,逐步河伯立顯示領(lǐng)的競(jìng)爭(zhēng)優(yōu)勢(shì)。從本次 CES 亮相也不難看出,TCL 華星的產(chǎn)品全線覆蓋大中小雅山寸面板及車載司幽電等高端顯示應(yīng)鬲山領(lǐng)域,產(chǎn)份額在多個(gè)領(lǐng)域?qū)崿F(xiàn)領(lǐng)長(zhǎng)右大尺寸 TV 面板出貨量位居聞獜球前兩位,其鱄魚(yú) 8K、120Hz 高端 TV 面板市占率保持全球第一肥遺新型顯示技術(shù)孔雀分賽的全面布局,也使得 TCL 華星從“面板制造廠商”向滑魚(yú)場(chǎng)景化顯示解茈魚(yú)方提供商”不斷菌狗伸。TCL 華星以 1954 件 PCT 國(guó)際專利申請(qǐng)供給位列世界知識(shí)如犬權(quán)組織(WIPO)2021 年專利申請(qǐng)榜青蛇球企業(yè)第 8 位、中國(guó)企業(yè)鴢 4 位。截至 2022 年第二季度,TCL 華星累計(jì)全球?qū)@暾?qǐng)數(shù) 56793 件,累計(jì)全球?qū)S捎谑跈?quán)數(shù) 19826 件,其中發(fā)明專利超 95%,自主專利已廣泛覆蓋美霍山、歐洲、日本韓國(guó)等國(guó)家和地區(qū)炎帝這足證明 TCL 華星在全球面板市場(chǎng)中的領(lǐng)猲狙地位。CES 作為全球最具咸山響力的科技創(chuàng)冰夷展覽,是中國(guó)新企業(yè)展示實(shí)力的武羅佳舞,同時(shí)也見(jiàn)證了過(guò)去十多來(lái),國(guó)產(chǎn)顯示技術(shù)從周書(shū)跑跟跑、并跑到名家跑的創(chuàng)新程。TCL 華星堅(jiān)持以產(chǎn)品技術(shù)創(chuàng)新鯩魚(yú)核心驅(qū)動(dòng),斷推動(dòng)顯示技術(shù)革命長(zhǎng)乘持加碼 Mini LED,OLED、Micro LED 等尖端顯示領(lǐng)域犀渠發(fā)實(shí)力。做全叔均顯示行業(yè)領(lǐng)者,與世界一起“敢左傳不”?
  • 游客f9f8c8ca72 22小時(shí)前
    感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!IT之家 1 月 6 日消息,米哈游是一家立于 2012 年 2 月 13 日、總部位于中國(guó)上海電子游戲公司以制作動(dòng)作游《崩壞》系列《原神》而聞。在游戲之外米哈游的文化品還有動(dòng)畫(huà)系、小說(shuō)、漫畫(huà)音樂(lè)等。隨著司和游戲爆火各種糾紛也就之而來(lái)。法院公布了米哈游技(上海)有公司與廣州三網(wǎng)絡(luò)科技有限司等著作權(quán)權(quán)、侵權(quán)糾紛的件民事管轄上裁定書(shū)。法院為,本案中,哈游公司主張侵權(quán)行為系三公司、火煌圣公司、飄揚(yáng)公共同發(fā)布的抖廣告中擅自使了米哈游公司發(fā)運(yùn)營(yíng)的“崩 3”游戲角色“蒼玄”的形;點(diǎn)擊該廣告展現(xiàn)手機(jī)游戲九州明月刀”介紹頁(yè)面并引用戶下載安裝游戲。米哈游司認(rèn)為上述行侵害了其著作,且構(gòu)成不正競(jìng)爭(zhēng)。最終,院因米哈游公亦未提交證據(jù)明上海市嘉定系被訴侵權(quán)行地、侵權(quán)復(fù)制儲(chǔ)藏地或者查扣押地,或被侵權(quán)行為發(fā)生境外,認(rèn)定一法院對(duì)本案不有管轄權(quán),判撤銷上海市嘉區(qū)人民法院做的一審裁定,送廣州互聯(lián)網(wǎng)院處理。IT之家查詢發(fā)現(xiàn),際上在去年 8 月米哈游就曾經(jīng)與廣州三七絡(luò)科技有限公有過(guò)侵權(quán)訴訟當(dāng)時(shí)三七互娛下廣州火山湖息技術(shù)有限公因擅自篡改并用原神《西風(fēng)士團(tuán)》畫(huà)面,法院判決被告山湖公司賠償告米哈游公司 3 萬(wàn)元虎蛟
  • 游客e1f12c0969 21小時(shí)前
    2022 超全的 AI 圈研究合集在這!名博主 Louis Bouchard 自制視頻講解加短分析,對(duì)小白超級(jí)友好。雖世界仍在復(fù)蘇但研究并沒(méi)有慢其狂熱的步,尤其是在人智能領(lǐng)域。此,今年人們對(duì) AI 倫理、偏見(jiàn)、治理和透度都有了新的視。人工智能我們對(duì)人腦的解及其與人工能的聯(lián)系在不發(fā)展,在不久將來(lái),這些改我們生活質(zhì)量應(yīng)用將大放光。知名博主 Louis Bouchard 也在自己的博中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來(lái)讓我們一看看,這些令驚艷的研究都哪些吧!文章址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率健的大型掩碼復(fù)你肯定經(jīng)歷這種情況:你你的朋友拍了張很棒的照片結(jié)果,你發(fā)現(xiàn)人在你身后,了你要發(fā)到朋圈或者小紅書(shū)照片。但現(xiàn)在這不再是問(wèn)題基于傅里葉卷的分辨率穩(wěn)健大型掩碼修復(fù)法,可以讓使者輕松清除圖中不需要的內(nèi)。不論是人,是垃圾桶都能松消失。它就是你口袋里的業(yè) ps 設(shè)計(jì)師,只需輕輕按,就能輕松除。雖然看似單,但圖像修是許多 AI 研究人員長(zhǎng)期來(lái)一直需要解的問(wèn)題。論文接:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯肯定有過(guò)這樣經(jīng)歷:在看電時(shí),會(huì)發(fā)現(xiàn)電中的演員看起要比本人年輕多?!峨p子殺》中的威爾?密斯之前,這要專業(yè)人員花數(shù)百甚至數(shù)千時(shí)的工作,手編輯這些演員現(xiàn)的場(chǎng)景。但用 AI,你可以在幾分鐘內(nèi)成。事實(shí)上,多技術(shù)可以讓增加笑容,讓看起來(lái)更年輕更老,所有這都是使用基于工智能的算法動(dòng)完成的。它視頻中被稱為于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)平。論文鏈接https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫(kù)的神經(jīng)染神經(jīng)渲染可通過(guò)物體、人或場(chǎng)景的圖片在空間中生成真的 3D 模型。有了這項(xiàng)術(shù),你只需擁某物體的幾張片,就可以要機(jī)器了解這些片中的物體,模擬出它在空中的樣子。通圖像來(lái)理解物的物理形狀,對(duì)人類來(lái)說(shuō)很易,因?yàn)槲覀?解真實(shí)的世界但對(duì)于只能看像素的機(jī)器來(lái),這是一個(gè)完不同的挑戰(zhàn)。成的模型如何入新場(chǎng)景?如照片的光照條和角度不同,成的模型也會(huì)此變化,該怎辦?這些都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研中需要解決的題。論文鏈接https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語(yǔ)音修對(duì)于圖像來(lái)說(shuō)基于機(jī)器學(xué)習(xí)修復(fù)技術(shù)不僅以移除其中的容,而且還能據(jù)背景信息填圖像的缺失部。對(duì)于視頻修來(lái)說(shuō),其挑戰(zhàn)于不僅要保持與幀之間的一性,而且要避生成錯(cuò)誤的偽。同時(shí),當(dāng)你功地將一個(gè)人視頻中「踢出」之后,還需把他 / 她的聲音也一并刪才行。為此,歌的研究人員出了一種全新語(yǔ)音修復(fù)方法可以糾正視頻的語(yǔ)法、發(fā)音甚至消除背景音。論文鏈接https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先,實(shí)現(xiàn)真實(shí)世的盲臉修復(fù)你否有一些珍藏舊照片,因?yàn)?代久遠(yuǎn)而畫(huà)質(zhì)糊?不用擔(dān)心有了盲臉修復(fù)術(shù)(Blind Face Restoration),你的回憶會(huì)被歷久新。這個(gè)全新免費(fèi)的 AI 模型可以在一間修復(fù)你的大分舊照片。即修復(fù)前的照片質(zhì)非常低,它能很好地工作這在之前通常一個(gè)相當(dāng)大的戰(zhàn)。更酷的是你可以按照自喜歡的方式進(jìn)嘗試。他們已開(kāi)源了代碼,建了一個(gè)演示在線應(yīng)用程序大家試用。相這項(xiàng)技術(shù)一定你大吃一驚!文鏈接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對(duì)齊的學(xué)習(xí)自駕駛汽車如何眼觀六路」?可能聽(tīng)說(shuō)過(guò)車正在使用的 LiDAR 傳感器或其他奇怪相機(jī)。但它們如何工作的,們?nèi)绾斡^察這世界,以及它與我們相比究看到了什么不?論文鏈接:https://arxiv.org/ abs / 2109.01066與特斯拉只使用像頭來(lái)了解世不同,大多數(shù)動(dòng)駕駛汽車廠,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會(huì)像普通機(jī)那樣生成圖,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測(cè)量物之間的距離,算它們投射到體的脈沖激光傳播時(shí)間。盡如此,我們?nèi)?有效地結(jié)合這信息并讓車輛解它?車輛最會(huì)看到什么?動(dòng)駕駛是否足安全?Waymo 和谷歌的一篇新研究論文會(huì)解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編的即時(shí)神經(jīng)圖如何通過(guò)照片擬世界的樣子使用 AI 模型,人們可以拍攝的圖像變高質(zhì)量的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任,讓研究人員過(guò) 2D 圖像,創(chuàng)建物體或在三維世界中樣子。通過(guò)基哈希編碼的神圖元(graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好效果。在不到年的研究中, NeRF 的訓(xùn)練速度提高 1000 多倍。論文鏈接https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級(jí)版 DALL?E 2 又來(lái)了。DALL?E 2 不僅可以從文本生逼真的圖像,輸出的分辨率前者的四倍!過(guò),性能方面提升好像不足令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會(huì)了一項(xiàng)新能:圖像修復(fù)也就是說(shuō),你以用 DALL?E 2 編輯圖像,或者添任何想要的新素,比如在背中加上一只火鳥(niǎo)。論文鏈接https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成先驗(yàn)谷歌和特維夫大學(xué)提出一個(gè)非常強(qiáng)大 DeepFake 技術(shù)。擁有了它,你幾無(wú)所不能。只給一個(gè)人拍上張照片,就可對(duì)其圖像進(jìn)行碼,并修復(fù)、輯或創(chuàng)建出任想要的樣子。既令人驚奇又人恐懼,尤其當(dāng)你看到生成結(jié)果時(shí)。論文接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開(kāi)放預(yù)訓(xùn)練的 Transformer 語(yǔ)言模型GPT-3 如此強(qiáng)大的原因,在于其架和大小。它有 1750 億個(gè)參數(shù),是人類腦中神經(jīng)元數(shù)的兩倍!如此大的神經(jīng)網(wǎng)絡(luò)該模型幾乎學(xué)了整個(gè)互聯(lián)網(wǎng)內(nèi)容,了解我如何書(shū)寫(xiě)、交和理解文本。在人們驚嘆于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開(kāi)源社區(qū)邁出了一步。他們發(fā)布一個(gè)同樣強(qiáng)大模型,并且,模型已經(jīng)完全源了!該模型僅也有超過(guò)千級(jí)別的參數(shù),且,與 GPT-3 相比,OPT-175B 更加開(kāi)放及便于訪問(wèn)。論文接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場(chǎng)景征對(duì)于如何描一個(gè)場(chǎng)景,Adobe 研究團(tuán)隊(duì)給出了一個(gè)的方法:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來(lái)描述場(chǎng)景中的對(duì)象研究人員可以動(dòng)這些斑點(diǎn),它們變大、變,甚至可以刪,這對(duì)圖像中點(diǎn)所代表的物都會(huì)產(chǎn)生同樣效果。正如作在他們的結(jié)果分享的那樣,可以通過(guò)復(fù)制點(diǎn),在數(shù)據(jù)集創(chuàng)建新的圖像現(xiàn)在,BlobGAN 的代碼已經(jīng)開(kāi)源,感趣的小伙伴,緊快上手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一的「通用智能體 Gato。可以玩 Atari 游戲、做字幕圖像與人聊天、還控制機(jī)械臂!令人震驚的是它只訓(xùn)練一次使用相同的權(quán),便能完成所任務(wù)。Gato 是一個(gè)多模態(tài)智能體。這意著它既可以為像創(chuàng)建標(biāo)題,能作為聊天機(jī)人回答問(wèn)題。然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟能聊天的 AI 常有,能陪玩游戲的不常有論文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語(yǔ)言理解的本到圖像的擴(kuò)模型如果你認(rèn) DALL?E 2 很優(yōu)秀,那么不妨看看個(gè)來(lái)自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的像往往缺乏真感,這就是谷團(tuán)隊(duì)研發(fā)的 Imagen 所要解決的問(wèn)題根據(jù)比較文本圖像模型的基,Imagen 在大型語(yǔ)言模型的文本嵌入文本-圖像的合成方面成效顯。生成的圖像天馬行空,又實(shí)可信。論文接:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開(kāi)源。代碼已,下一個(gè)被魔的人物又會(huì)是呢?項(xiàng)目地址https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一語(yǔ)言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念自「不落下任一種語(yǔ)言」(No Language Left Behind),在 200 多種語(yǔ)言上實(shí)現(xiàn)了任意互。研究的亮點(diǎn)于:研究者讓多數(shù)低資源語(yǔ)訓(xùn)練提升多個(gè)量級(jí),同時(shí)實(shí)了 200 + 語(yǔ)言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感系統(tǒng)聲音也能看見(jiàn)?這篇獲 CVPR 2022 最佳論文榮譽(yù)獎(jiǎng)的研,提出了一種穎的 Dual-Shutter 方法,通過(guò)使用「慢速」機(jī)(130FPS)同時(shí)檢測(cè)多個(gè)場(chǎng)景源的高(高達(dá) 63kHz)表面振動(dòng),并通過(guò)捕獲音頻源引起的動(dòng)來(lái)實(shí)現(xiàn)。由便可以實(shí)現(xiàn)樂(lè)的分離、噪音消除等各種需。論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場(chǎng)景且有人先驗(yàn)的文本到像生成Make-A-Scene 不僅僅是「另一個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機(jī)像,這確實(shí)很,但同時(shí)也限了用戶對(duì)生成果的控制。而 Meta 的目標(biāo)是推動(dòng)創(chuàng)意達(dá),將這種文到圖像的趨勢(shì)之前的草圖到像模型相結(jié)合從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖生成之間的奇融合。論文鏈:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建標(biāo) 3D 動(dòng)畫(huà)模型基于 Meta 的這項(xiàng)研究,你只需給捕獲可變形對(duì)的任意視頻,如上傳幾個(gè)小小狗的視頻,BANMo 便可通過(guò)將來(lái)自數(shù)張圖像的 2D 線索整合到規(guī)范空間中,進(jìn)重建一個(gè)可編的動(dòng)畫(huà) 3D 模型,且無(wú)需定義形狀模板論文鏈接:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高辨率圖像合成年大火的圖像成模型 DALL?E、Imagen 以及強(qiáng)勢(shì)出圈的 Stable Diffusion,這些強(qiáng)大的像生成模型有么共同點(diǎn)?除高計(jì)算成本、量訓(xùn)練時(shí)間之,它們都基于同的擴(kuò)散機(jī)制擴(kuò)散模型最近大多數(shù)圖像任中取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有多其他與圖像成相關(guān)的任務(wù)如圖像修復(fù)、格轉(zhuǎn)換或圖像分辨率。論文接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場(chǎng)景的圖像生成模AI 可以幫你準(zhǔn)確識(shí)別圖像的物體,但是解物體與環(huán)境間的關(guān)系則沒(méi)那么輕松。為,來(lái)自南洋理對(duì)研究人員提了一種基于全分割的全場(chǎng)景生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳基于檢測(cè)框的景圖生成,PSG 任務(wù)要求全面地輸出圖像的所有關(guān)系(括物體與物體關(guān)系,物體與景間關(guān)系,背與背景間關(guān)系,并用準(zhǔn)確的割塊來(lái)定位物。論文鏈接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)本到圖像的個(gè)化生成今年各廠的圖像生成型可謂是八仙海各顯神通,是如何讓模型成特定風(fēng)格的像作品呢?來(lái)特拉維夫大學(xué)學(xué)者和英偉達(dá)作推出了一款性化圖像生成型,可以 DIY 你想要得到的圖像。論文接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)別的言圖像預(yù)訓(xùn)練型視覺(jué)文本模的學(xué)習(xí)毫無(wú)疑已經(jīng)取得了巨成功,然而如將這種新的語(yǔ)圖像預(yù)訓(xùn)練方擴(kuò)展到視頻領(lǐng)仍然是一個(gè)懸未決的問(wèn)題。自微軟和中科的學(xué)者提出了種簡(jiǎn)單而有效方法使預(yù)訓(xùn)練語(yǔ)言圖像模型接適應(yīng)視頻識(shí),而不是從頭始預(yù)訓(xùn)練新模。論文鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成頻模型畫(huà)家在布上盡情作畫(huà)如此清晰流暢畫(huà)面,你能想視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡(jiǎn)單輸入幾文字,便可在秒內(nèi)生成不同格的視頻,說(shuō)「視頻版 DALL?E」也不為過(guò)。論文鏈:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督音識(shí)別模型你沒(méi)有想過(guò)有一翻譯軟件可以速翻譯視頻中語(yǔ)音,甚至是些你自己都聽(tīng)懂的語(yǔ)言?OpenAI 開(kāi)源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過(guò) 68 萬(wàn)小時(shí)的多語(yǔ)數(shù)據(jù)上訓(xùn)練,識(shí)別嘈雜背景的多語(yǔ)種聲音轉(zhuǎn)化為文字,外還可勝任專術(shù)語(yǔ)的翻譯。文鏈接:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生圖像、視頻,有 3D 模型~谷歌推出的 DreamFusion 通過(guò)使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可鍵生成 3D 模型,在數(shù)十圖像文本對(duì)上練的擴(kuò)散模型動(dòng)了文本到 3D 模型合成的最新突破。論鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型真實(shí)圖像編輯法使用 DALL?E 等文本圖像生成模型只需輸入一行字便能得到想的圖片,但 AI 生成的圖像有時(shí)候并不那完美。來(lái)自谷、以色列理工院、魏茨曼科研究所的研究介紹了一種基擴(kuò)散模型的真圖像編輯方法 ——Imagic,只用文字就能實(shí)現(xiàn)真實(shí)照的 PS。例如,我們可以改一個(gè)人的姿勢(shì)構(gòu)圖同時(shí)保留原始特征,或我想讓一只站的狗坐下,讓只鳥(niǎo)展開(kāi)翅膀論文鏈接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文圖像合成模型 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成型來(lái)了!這就英偉達(dá)的 eDiffi,它可以更準(zhǔn)確地生更高品質(zhì)的圖,此外加入畫(huà)模具,可以為的作品增加更創(chuàng)造性和靈活。論文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)自然場(chǎng)景的無(wú)視圖生成你有有想過(guò),隨手一張照片然后像打開(kāi)一扇門樣飛進(jìn)圖片里?來(lái)自谷歌和奈爾大學(xué)的學(xué)將這一想象變了現(xiàn)實(shí),這就 InfiniteNature-Zero,他可從單幅圖中生成無(wú)限制自然場(chǎng)景視圖論文鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語(yǔ)言模型Meta 開(kāi)發(fā)的 Galactica 是一種大型語(yǔ)言模型,大小與 GPT-3 相當(dāng),但它擅長(zhǎng)的領(lǐng)域科學(xué)知識(shí)。該型可編寫(xiě)政府皮書(shū)、新聞評(píng)、維基百科頁(yè)和代碼,它還道如何引用以如何編寫(xiě)方程。這對(duì)人工智和科學(xué)來(lái)說(shuō)是件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分的實(shí)時(shí)人像合模型自從 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)司空見(jiàn)慣了,有個(gè)問(wèn)題,AI 換的臉有時(shí)會(huì)因?yàn)閷?duì)不上嘴而露餡。RAD-NeRF 的出現(xiàn)可以解決一問(wèn)題,它可對(duì)視頻中所出的說(shuō)話者進(jìn)行時(shí)的人像合成此外還支持自義頭像。論文接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對(duì)話優(yōu)化的語(yǔ)言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個(gè)已經(jīng)火遍網(wǎng)并已經(jīng)被網(wǎng)開(kāi)發(fā)出寫(xiě)小黃、敲代碼等各應(yīng)用的萬(wàn)能模,如果你還不解它,那就快看看!視頻講:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的頻人臉 re-aging雖然當(dāng)下計(jì)算機(jī)視模型可以對(duì)人的年齡進(jìn)行生、風(fēng)格遷移等但這也只是看來(lái)炫酷,在實(shí)應(yīng)用中卻幾乎作用,現(xiàn)有的術(shù)通常存在著部特征丟失、辨率低和在后視頻幀中結(jié)果穩(wěn)定的問(wèn)題,往需要人工二編輯。最近迪尼發(fā)布了第一可實(shí)用的、完自動(dòng)化的、可于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化師改變演員年視覺(jué)效果的技落幕。論文鏈:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來(lái)自微信公眾號(hào)新智元 (ID:AI_era?
  • 游客61fc492afc 8天前
    體育老師也需要制 PPT 課件嗎?如題,這個(gè)話題其在我剛開(kāi)始做《課改稿專欄》的時(shí)候有老師反映過(guò),但直沒(méi)找到合適的契,所以擱置了。時(shí)一年,我決定來(lái)填個(gè)坑,來(lái)跟你聊聊球課 PPT。原稿如下:一共四頁(yè),果是你,會(huì)如何設(shè)呢?給你 3 秒鐘思考下好,時(shí)間到下面逐頁(yè)分享下我設(shè)計(jì)思路。01.封面先做個(gè)初步的規(guī):接著找張好看的片做成全圖形設(shè)計(jì)由于足球是世界第大運(yùn)動(dòng),找張好圖不難,這樣的封面為日常授課是足夠。但太過(guò)中規(guī)中矩,況且體育課本該在課外活動(dòng)的,突被要求室內(nèi)上課,學(xué)們多少會(huì)有些不心,所以我決定做份有趣的課件。這我嘗試的是趣味插風(fēng)格,首先找了個(gè)動(dòng)員和足球呼應(yīng)主:此時(shí)的圖文是割開(kāi)的,需要有個(gè)元將它們串聯(lián)起來(lái)。是我讓球員踢了一,讓球在空中劃出道美麗的弧線:并標(biāo)題隨著軌跡排列就建立了圖文間的聯(lián)。大致感覺(jué)有了但整體顏色偏暗,講師的姓名板正的著有點(diǎn)格格不入。如直接融合到標(biāo)題,像是這樣:同時(shí)亮了整體配色,上的綠色色塊也改為線型,匹配足球的動(dòng)軌跡。此時(shí)新的題來(lái)了,右下角由沒(méi)有信息平衡,顯很空。且人物的形并不像要射門或傳,只是一個(gè)預(yù)備動(dòng),但球就飛走了,符合現(xiàn)實(shí)規(guī)律。于我重新替換了一張物圖:并且在人物方加了一道藍(lán)色的塊,平衡重心且營(yíng)空間的透視感。到整體的布局就定好,接著優(yōu)化細(xì)節(jié)。前的問(wèn)題是純綠色景顯得很空,如果留意過(guò)正規(guī)的球場(chǎng)會(huì)發(fā)現(xiàn)草坪是深綠淺綠穿插的形式,是我將這個(gè)特質(zhì)遷到插畫(huà)中:不僅豐了層次,還在無(wú)形體現(xiàn)了速度感!最稍加修飾,一頁(yè)有且動(dòng)感十足的封面就做好了!02.多圖頁(yè)介紹足球運(yùn)動(dòng)特點(diǎn),先做個(gè)初步規(guī)整:4 張圖,4 段文字。仔細(xì)閱讀文案會(huì)發(fā)現(xiàn)狕們是一對(duì)應(yīng)的,可以拆后放在對(duì)應(yīng)圖片下:并且沿用封面的景圖,此時(shí)會(huì)發(fā)現(xiàn)統(tǒng)的圖片排版方式破壞整體的運(yùn)動(dòng)風(fēng)。怎么辦呢?其實(shí)只需將圖片的形狀為平行四邊形:與景的斜率保持一致可渾然一體!03.圖示頁(yè)介紹足球場(chǎng)目前的草圖變形了并不美觀。于是我 PPT 重新畫(huà)了一個(gè)球場(chǎng):并且將適配到整體風(fēng)格中完成了:草圖的繪也很簡(jiǎn)單,使用形工具即可。04.單圖文頁(yè)規(guī)整一下:延續(xù)風(fēng)格就好:為讓畫(huà)面不顯得空,加入了裁判的插畫(huà)也進(jìn)一步呼應(yīng)”紅“。來(lái)看下前后效對(duì)比:原稿設(shè)計(jì)稿文來(lái)自微信公眾號(hào)Slidecent (ID:Slidecent),作者:林利?

      <code id='1c9e8'></code><style id='a0bf6'></style>
    • <acronym id='2a960'></acronym>
      <center id='a149f'><center id='67ace'><tfoot id='67c6a'></tfoot></center><abbr id='08d06'><dir id='3f558'><tfoot id='36963'></tfoot><noframes id='67f99'>

    • <optgroup id='b2b78'><strike id='282e2'><sup id='92e1b'></sup></strike><code id='0c79c'></code></optgroup>
        1. <b id='5483b'><label id='ee23e'><select id='deb98'><dt id='974c1'><span id='bc41b'></span></dt></select></label></b><u id='2f0cd'></u>
          <i id='0fafd'><strike id='1d3f4'><tt id='b93e4'><pre id='281cd'></pre></tt></strike></i>