日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

Cityscapes,cityscapes

團(tuán)隊如何接數(shù)據(jù)標(biāo)注任務(wù)?

Cityscapes,cityscapes


謝@霍華德邀我目前在車廠無人駕駛部門的職責(zé)之一便是研發(fā)無人駕駛感知算法的數(shù)據(jù)集的半自動標(biāo)注算法再具體一點(diǎn)計算機(jī)視覺領(lǐng)域的: 語義分割(Semantic Segmentation) 和 全景分割 (Panoptic Segmentation)https://arxiv.org/pdf/1801.00868.pdf它們或許是數(shù)據(jù)標(biāo)注領(lǐng)域成本最高的倆個任務(wù)(德國高達(dá)100人民幣/圖)它們的具體定義可以見上圖一、標(biāo)注任務(wù)語義分割: 對圖片中每一個像素標(biāo)注其類別(如:汽車、行人、道路等)全景分割:對于每一個像素 , 在語義分割的基礎(chǔ)上再區(qū)分目標(biāo)instance物體(如:汽車1、汽車2、行人5等)二、標(biāo)注格式通常標(biāo)注結(jié)果還是存成圖片的常見格式(如: png)圖片的每一個通道存儲不同信息(用數(shù)字1-255表示)例如第一通道存儲: 該像素所屬類別第二通道:如果該像素屬于目標(biāo)物體 , 他屬于第幾個instance第三通道:通常是0或1 , 1表示該像素是可以駕駛的區(qū)域 , 0反之三、開源數(shù)據(jù)集Cityscapes(戴姆勒公司、德國馬普所、TU Darmstadt): https://www.cityscapes-dataset.com/Mapillary Vistas (豐田、Lytf等贊助):https://www.mapillary.com/dataset/vistas?pKey=0_xJqX3-c-KyTb90oG_8HQKitti Dataset (德國KIT和豐田芝加哥研究所): http://www.cvlibs.net/datasets/kitti/eval_scene_flow.php等等可以看到背后都有財團(tuán)的支持四、數(shù)據(jù)集的成本和作用成本:據(jù)Cityscapes官方 , 標(biāo)注一張該數(shù)據(jù)集中的語義分割平均需要1.5小時?。?!德國最低工資是9歐元左右/小時因此在德國標(biāo)注一張語義分割圖片的成本超過13歐元(約合100塊人民幣)??!重要性:深度學(xué)習(xí)需要大量精細(xì)標(biāo)注的數(shù)據(jù)作為“燃料”保守L3要能夠上路需要至少幾百萬張標(biāo)注精細(xì)的訓(xùn)練圖片人工智能時代 , 誰擁有數(shù)據(jù)誰就擁有源源不斷的燃料數(shù)據(jù)集也成為無人駕駛公司和主機(jī)廠的兵家必爭之地五、用優(yōu)化算法節(jié)約標(biāo)注成本手動標(biāo)注一張語義分割像素級別的圖片平均需要1.5小時有沒有什么更智能的辦法提高標(biāo)注效率呢?專注于優(yōu)化算法的@運(yùn)籌OR帷幄 以下略探12:1. ScribbleSup: Scribble-Supervised Convolutional Networks for ...2. Weakly-and Semi-Supervised Panoptic Segmentation3. Fast Interactive Object Annotation With Curve-GCN其中paper 1和2是用涂鴉和畫方框的方式與圖片交互Paper 3是用描物體邊界的方式標(biāo)注軟件的一般流程是:標(biāo)注者輸入交互信息-算法自動標(biāo)注-標(biāo)注者修改-算法標(biāo)注直到標(biāo)注者滿意為止Paper 1和2還report了只進(jìn)行一次交互(標(biāo)注時間為幾十秒)圖像分割優(yōu)化算法結(jié)合深度學(xué)習(xí)CNN便可以達(dá)到相較于精細(xì)標(biāo)注95%的精度We obtain state-of-the-art results on Pascal VOC, for both full and weak supervision (which achieves about 95% of fullysupervised performance).注:以上研究方向關(guān)鍵詞weakly and semi-supervised learning六、結(jié)語數(shù)據(jù)標(biāo)注是如今深度學(xué)習(xí)獲得巨大成功的基石從Feifei Li創(chuàng)建ImageNet(1千多萬張、2萬多類別圖片)開始數(shù)據(jù)集便成為計算機(jī)視覺的一個熱點(diǎn)話題而伴隨著數(shù)據(jù)集的各種challenge和刷榜單也成為CV領(lǐng)域發(fā)頂會的標(biāo)配希望“無償”使用公開數(shù)據(jù)集的研究者和業(yè)界從業(yè)者都能尊重數(shù)據(jù)集創(chuàng)作者的汗水人工智能的從業(yè)者也能認(rèn)可那些幕后做著重復(fù)枯燥標(biāo)記工作者的付出(例如:貴陽數(shù)據(jù)標(biāo)記村)最后 , 無人駕駛、計算機(jī)視覺、人工智能的學(xué)生 。
圖像語義分割的模型設(shè)計也能自動化了嗎?
Cityscapes,cityscapes


過去 , 神經(jīng)網(wǎng)絡(luò)架構(gòu)大部分都是由人類研究者手動開發(fā)的 , 這個過程非常耗時且容易出錯 。神經(jīng)架構(gòu)自動搜索(NAS)技術(shù)解放了人類工作 , 也讓模型效率有了提升 。在大規(guī)模圖像分類問題上 , 自動算出的模型已經(jīng)超越了人類設(shè)計的模型 。近日 , 斯坦福大學(xué)李飛飛組的研究者提出了 Auto-DeepLab , 其在圖像語義分割問題上超越了很多業(yè)內(nèi)最佳模型 , 甚至可以在未經(jīng)過預(yù)訓(xùn)練的情況下達(dá)到預(yù)訓(xùn)練模型的表現(xiàn) 。

推薦閱讀