大家好,我是Echa. 這幾天有幾位老鐵們私信給我留言,說最近找了幾部小電影都打碼了,有沒有黑科技把碼去掉,無碼看著多舒服。小編也好奇,是啥電影要用到黑科技來解決,其實只要懂點技術,沒有解決不了的,只要用心去做,給點時間,fei die 都能造出來。不吹牛b了,回歸正傳。 今天小編給老鐵們分享11個Github上有趣的黑科技開源項目,個個都非常驚艷。小編有時候也會用用,方便有趣,還可以幫忙解決不少的事情,所以決定一一分享給大家,希望大家喜歡。 創(chuàng)作不易,喜歡的老鐵們加個關注,點個贊,后面會持續(xù)更新干貨,速速收藏,謝謝! 全文大綱
PULSEGithub(7k):https://github.com/adamian98/pulse PULSE - 該開源項目可以通過給圖片增加像素點來實現(xiàn)去馬賽克或高清化 馬賽克:人類文明進步的絆腳石,宅男的死敵,老司機的噩夢。從馬賽克誕生起,人類和馬賽克的斗爭就從未停止。 對于程序員來說,如果女生問我們最多的問題是:如何裝系統(tǒng)?那么男生問的最多的問題肯定是:咋去除馬賽克。 如果有人問你能不能去除馬賽克?你可以給他肯定的答復:不能,馬賽克是不可逆的。 但是,但是!你可以腦補啊,那玩意看多了,被打碼的地方啥樣,自己心里沒數(shù)么?但對于一個正常人來說,我這里說的是正常人啊,即使你閱片無數(shù),給你一個嚴重打碼的美女照片,你也很難腦補出這個美女長啥樣,原因有兩個: 1. 你沒有看過足夠多的美女圖片 2. 你沒有建立 美女馬賽克 到 美女原圖 的聯(lián)系 有的小伙伴就說了,我不吃不喝,就只看美女圖片和對應的馬賽克圖。當我看了足夠多,給我一個打碼的美女圖片,我腦海里會不會立馬涌現(xiàn)這個美女長啥樣 ? 妙啊,乍一聽還真有點東西。難道這就是 “心中無碼,便是高清” ? 如圖: DepixGithub(23.1k):https://github.com/beurtschipper/Depix Depix - 給打了馬賽克的文字去碼 如圖: TecoGANGithub(5.1k):https://github.com/thunil/TecoGAN TecoGAN 給視頻去馬賽克或者進行超分辨率 如圖: Real-Time-Voice-CloningGithub(38.3k):https://github.com/CorentinJ/Real-Time-Voice-Cloning Real-Time-Voice-Cloning - 只需要你 5 秒鐘的語音,就能生成你說出來的任何話,細思極恐。 下面是比較詳細的使用教程,遇到問題可以查看幫助: https://www.bilibili.com/video/av79481223?zw https://blog.csdn.net/weixin_41010198/article/details/113186232 我用這個模型試了一下,因為這個模型是老外開源的,所以訓練的數(shù)據(jù)是英語的語音,我試了一下說中文,簡直就是不會說中文的老外講中文一個味道,現(xiàn)在我懷疑世界的真實性了 如圖: SkinDeepGithub(38.3k):https://github.com/vijishmadhavan/SkinDeep SkinDeep - 黑科技一鍵去除圖片、視頻中的紋身 沒想到 GitHub 上真有這個開源項目,一位來自印度的算法研究員 Vijish Madhavan 開源了一個機器學習工具 SkinDeep ,它可以自動去除明星身上的紋身。 我使用這一工具去處理了一些重度紋身的人物照片,效果還不錯。下圖是阿倫 · 艾弗森(美國籃球運動員)的紋身去除前后對比圖。 如圖: StyleCLIPGithub(3.2k):https://github.com/orpatashnik/StyleCLIP StyleCLIP - AI自動 P圖,見沒見過掃把頭的馬斯克? 剛剛這個項目展現(xiàn)了 AI 的強大,效果堪比 PS,接下來這個自動 P 圖的項目才是真的牛逼。 你有沒有想過這樣一個場景,當你對著一張原圖說:幫我 P 一個帥氣的劉海,啪!一個具有帥氣劉海的圖片便自動生成了。 如圖: polyglot-pngGithub(3.2k):https://github.com/DavidBuchanan314/tweetable-polyglot-png polyglot-png - 明明下載的是一張圖片,只需修改后綴名,圖片就變成了一首歌,一串代碼 國外黑客David Buchanan利用Twitter的漏洞,可以用圖片偽裝的方式傳輸一份“加密”文件,前提是不超過3MB。 他成功把這種藏匿文件的GitHub源代碼壓縮到圖片中。 現(xiàn)在你只要去他的Twitter,把這張圖片下載下來,并將文件后綴名從.png修改為.zip,即可解壓為Github代碼。 用圖片隱藏壓縮包的原理并不復雜,png圖片文件的格式如下。在Zlib之后,有一片IDAT塊的附加數(shù)據(jù)。藏匿數(shù)據(jù)就放在這里。 帶壓縮包的圖片地址: https://i./kNhGrN3.png David Buchanan的Twitter: https://twitter.com/David3141593/status/1371974874856587268 如圖: ResnetGPTGithub(2.2k):https://github.com/FengQuanLi/ResnetGPT ResnetGPT - 教你訓練一個模型,讓人工智能玩王者榮耀. 這個開源項目的實現(xiàn)原理是怎樣的 ?下圖是這個模型的核心代碼,不算難,我一步步的拆解,我盡量用通俗的語言描述這些技術。 讓電腦幫我們玩游戲可以分為如下幾步,當然這種方式是比較容易實現(xiàn)的方式,并不會用到「強化學習」的東西,而屠殺圍棋圈的 AlphaGo 算法是基于強化學習。 1. 獲取當前游戲界面。既英雄現(xiàn)在是什么狀態(tài)、周圍有沒有敵方英雄、小兵等等。 2. 根據(jù)當前游戲界面狀態(tài)生成操作指令,是應該前進、攻擊還是釋放技能。 3. 根據(jù)生成的操作指令去控制手機,英雄做出相應的動作。 對于訓練一個平民版的人工智能模型,大體流程就是這樣。其中獲取當前游戲界面、根據(jù)指令去控制手機都有成熟的技術。 比如這個項目中使用 scrcpy 獲取安卓手機的投屏,這款安卓投屏神器可以將游戲畫面投屏到電腦桌面上。 有了游戲畫面,就得到了這時戰(zhàn)局的狀況。游戲畫面是圖片的形式,至于這個圖片包含什么內容,人能看明白,但是電腦不懂。 這就需要我們自己去提取圖片中的特征,這里便會用到深度學習算法的東西。基于卷積神經(jīng)網(wǎng)絡(CNN)來提取圖片的特征,項目中使用的是 ResNet 101 分類網(wǎng)絡。 通過訓練這個卷積神經(jīng)網(wǎng)絡,該網(wǎng)絡就會具備提取游戲畫面特征的能量,有了這些,算法才能進行下一步操作指令的生成。 如圖: intelligent-uavpath-planningGitee:https:///wwy2018/intelligent-uavpath-planning-simulation-system-S
這個項目是一個智能無人機路徑規(guī)劃仿真系統(tǒng),具有操作控制精細、平臺整合性強、全方向模型建立與應用自動化等優(yōu)點。 它以 A、B 兩國在 C 區(qū)開展無人機戰(zhàn)爭為背景,該系統(tǒng)的核心功能是通過仿真平臺規(guī)劃無人機航線,并進行驗證輸出。數(shù)據(jù)可導入真實無人機,使其按照規(guī)定路線精準抵達戰(zhàn)場任一位置,支持多人多設備編隊聯(lián)合行動。 如圖: EssayKiller_V2Github(4.9k):https://github.com/EssayKillerBrain/EssayKiller_V2 EssayKiller_V2 - 一個人利用三個月,開發(fā)了一個會寫作文的人工智能 一般來說,高考作文可以通過批量化、模式化的訓練達到一個令人滿意的分數(shù)。實際上就是把學生當做一個寫作機器進行訓練,為學生輸入大量范文,提供寫作模式,然后進行長時間的學習。等等,這不是和人工智能的訓練過程相同嗎? 那么,如果給一個人工智能系統(tǒng)同樣的數(shù)據(jù),是否可以教會它寫作文呢? 答案是,當然可以。B 站 UP 主 - 圖靈的貓,秉承了心動不如行動的理念,一個人利用三個月,500 個小時,10000 行代碼,200000000 條數(shù)據(jù),1700000000 個參數(shù),開發(fā)了一個會寫作文的人工智能 - EssayKiller。 如圖: style2paintsGithub:https://github.com/lllyasviel/style2paints style2paints - 不需要安裝任何環(huán)境、做任何配置,下載然后雙擊,就可以給線描圖畫上色。 這個 AI 項目是二次元的福音,雖然他是基于 AI 驅動,但這個項目不需要你安裝任何環(huán)境、做任何配置。直接下載,然后雙擊,就可以給一個線描圖畫上色了。 如圖: |
|