苍井优一级毛片免费观看,成年网站在线观看,日本一二三不卡视频,日日天天人人夜夜九九

24小時(shí)論文定制熱線(xiàn)

熱門(mén)畢設:土木工程工程造價(jià)橋梁工程計算機javaasp機械機械手夾具單片機工廠(chǎng)供電采礦工程
您當前的位置:論文定制 > 畢業(yè)設計論文 >
快速導航
畢業(yè)論文定制
關(guān)于我們
我們是一家專(zhuān)業(yè)提供高質(zhì)量代做畢業(yè)設計的網(wǎng)站。2002年成立至今為眾多客戶(hù)提供大量畢業(yè)設計、論文定制等服務(wù),贏(yíng)得眾多客戶(hù)好評,因為專(zhuān)注,所以專(zhuān)業(yè)。寫(xiě)作老師大部分由全國211/958等高校的博士及碩士生設計,執筆,目前已為5000余位客戶(hù)解決了論文寫(xiě)作的難題。 秉承以用戶(hù)為中心,為用戶(hù)創(chuàng )造價(jià)值的理念,我站擁有無(wú)縫對接的售后服務(wù)體系,代做畢業(yè)設計完成后有專(zhuān)業(yè)的老師進(jìn)行一對一修改與完善,對有答辯需求的同學(xué)進(jìn)行一對一的輔導,為你順利畢業(yè)保駕護航
代做畢業(yè)設計
常見(jiàn)問(wèn)題

基于計算機視覺(jué)的公交乘客上下車(chē)識別

添加時(shí)間:2021/10/26 來(lái)源:未知 作者:樂(lè )楓
公交車(chē)監控系統已經(jīng)在公交車(chē)內普遍使用,監控視頻數據為獲取真實(shí)乘客上下站點(diǎn)對信息提供了新的思路。視頻數據相對容易獲取,能夠獲取所有上下車(chē)乘客的數據,彌補 IC 數據帶來(lái)的樣本偏差和無(wú)法驗證等問(wèn)題。
以下為本篇論文正文:

摘 要

  公共交通乘客上下站點(diǎn)對信息(Origin and Destination,OD)是公交運行管理與規劃的重要基礎數據,對分析與提高公共交通系統的運行效率具有重要意義。傳統通過(guò)人工調查的方法,存在成本高且抽樣低等缺點(diǎn)。近年來(lái),智能卡大數據在提取OD 信息上得到了廣泛應用,然而智能卡數據缺乏乘客的下車(chē)信息,且數據帶有一定的有偏性,反映真實(shí)的居民出行行為還存在一定的偏差。

  公交車(chē)監控系統已經(jīng)在公交車(chē)內普遍使用,監控視頻數據為獲取真實(shí)乘客上下站點(diǎn)對信息提供了新的思路。視頻數據相對容易獲取,能夠獲取所有上下車(chē)乘客的數據,彌補 IC 數據帶來(lái)的樣本偏差和無(wú)法驗證等問(wèn)題。隨著(zhù)以深度學(xué)習為代表的視頻處理技術(shù)的發(fā)展與成熟,從視頻數據中對目標進(jìn)行檢測、跟蹤,實(shí)現跨攝像頭的目標重識別成為可能。因此,本文研究了利用計算機視覺(jué)技術(shù)獲取公交車(chē)乘客上下車(chē)站點(diǎn)對的方法。論文的具體工作如下:

  (1)基于 YOLOv3 的目標檢測框架實(shí)現對公交乘客的目標檢測。通過(guò)分幀及抽取的方法,得到拍攝視頻的圖像,使用標注工具手工標注乘客對象,獲得公交乘客數據集。對標注數據集進(jìn)行聚類(lèi)分析,得到基于乘客目標的預選框,然后利用公交乘客數據集訓練得到針對公交車(chē)場(chǎng)景的目標檢測器。最終得到目標檢測器的 mAP值達到 89.4,相比于原有的檢測器提高了 12.3%,較好地實(shí)現對乘客目標的檢測。 (2)對檢測的目標進(jìn)行跟蹤并基于跟蹤軌跡提取上下車(chē)乘客。利用卡爾曼濾波算法對檢測框進(jìn)行狀態(tài)估計,并使用外觀(guān)特征、運動(dòng)信息以及級聯(lián)匹配三種方法進(jìn)行幀間匹配,從而達到更加準確的匹配精度,實(shí)現對多個(gè)乘客目標的連續跟蹤;對獲取的跟蹤對象,我們利用跟蹤軌跡判別檢測對象是否存在上下車(chē)行為,并采用閾值法判別對象屬于上車(chē)還是下車(chē)行為,從而實(shí)現對檢測及跟蹤對象的過(guò)濾,得到上車(chē)乘客數據集和下車(chē)乘客數據集。

  (3)對上下車(chē)乘客進(jìn)行重識別獲取乘客 OD 信息。重識別算法基于 PCB+RPP框架,對比使用隨機擦除法,加入驗證集等方法對訓練結果的影響。同時(shí),本文基于公交場(chǎng)景,對重識別的數據集進(jìn)行過(guò)濾及篩選,以此減少重識別的檢測時(shí)間,提高檢測精度。最后,對過(guò)濾和篩選的上下車(chē)乘客數據集進(jìn)行重識別,最終得到公交乘客上下車(chē)站點(diǎn)對,獲得乘客 OD 信息。通過(guò)實(shí)驗,我們得到在公開(kāi)數據集上表現較好的重識別算法性能,其中 Rank-1 達到 93.78,mAP 達到 83.62.將該算法應用于公交乘客上下車(chē)數據集,得到匹配正確率為 80.4%,說(shuō)明該算法對識別跨攝像頭的公交乘客有較良好的應用效果。

  關(guān)鍵詞:視頻數據;深度學(xué)習;目標檢測;目標跟蹤;重識別;公交 OD

Abstract

  Origin and Destination information of passengers is an important basic data for bus operation management and planning. It is of great significance to analyze and improve the operation efficiency of the public transportation system. The traditional method of manual investigation has the disadvantages of high cost and low sampling. In recent years, smart card data has been widely used to extract OD information. However, smart card data lacks passenger disembarkation information, and there is a certain bias in the use of smart card data, which reflects certain deviations in the true travel behavior of residents.

  The bus monitoring system has been widely used in buses, and the monitoring video data provides new ideas for obtaining information on real passengers getting on and off the station. Video data is relatively easy to obtain and covers a wide range, making up for sample deviations and unverifiable problems caused by IC data. With the development and maturity of video processing technologies represented by deep learning, it is possible to detect and track targets from video data and achieve cross-camera target recognition. Therefore, this paper studies the method of using computer vision technology to obtain the pair of bus passengers getting on and off the bus. The specific work and innovations of the paper are as follows:

  (1) Based on the YOLOv3 target detection framework, the target detection of bus passengers is realized. In order to improve the performance of target detection, we use the video captured in the bus, through the frame framing and extraction method to obtain the video shooting image, use the annotation tool to manually mark the passenger object, and obtain the bus passenger data set. Perform cluster analysis on the data set to obtain a pre-selection frame based on human targets, and finally use the bus passenger data set to train to obtain a target detector for bus scenarios. Finally, the mAP value of the detector reaches 89.4, which is 12.3% higher than the original target detector.

  (2) Track the detected target and extract passengers on and off based on the tracking trajectory. The Kalman filter algorithm is used to predict the state of the detection frame, and the three matching methods of apparent feature, motion information and cascade matching are used to achieve more accurate matching accuracy and achieve continuous tracking of multiple passenger targets; Obtained tracking object, we use the tracking trajectory to determine whether the detection object has the behavior of getting on and off, and use the threshold method to determine whether it belongs to the getting on or off behavior, so as to filter the detection and tracking objects, and get the passenger data set and getting off Passenger data set.

  (3) Re-identify passengers who get on and off the vehicle to obtain passenger OD information. The re-identification algorithm is based on the PCB+PRR framework, and uses arandom erasure algorithm to train the training data set. Compare the effect of random erasure, adding verification set and other methods on the training results. At the same time, based on the bus scene, this paper filters and screens the data set for re-identification, so as to reduce the detection time of re-identification and improve the detection accuracy. Finally, the filtered and screened passenger data sets are re-identified, and finally the bus passengers get on and off site pairs to obtain passenger OD information. Through comparative experiments, we get the best performance of the re-recognition algorithm on public data sets, with Rank-1 reaching 93.78 and mAP reaching 83.62. This algorithm is applied to the bus passengers getting on and off data set, and the matching accuracy rate is 80.4%, indicating that the algorithm has a good application effect for identifying cross-camera bus passengers.

  Key word: Video data; Deep Learning; Bus passengers; Target detection; Target tracking; Re-identification; Travel OD

公交車(chē)監控系統

目 錄

 

  第 1 章 緒 論

  1.1 研究背景與意義

  1.1.1 研究背景

  隨著(zhù)我國城市化進(jìn)程的加快,城市人口迅速上升,城市出行人數也大幅度增長(cháng),因此,城市的公共交通也面臨挑戰。解決交通問(wèn)題成為城市化進(jìn)程中必須面對的重大問(wèn)題之一。交通問(wèn)題的解決對城市的發(fā)展具有重要意義。乘坐公交出行作為城市居民主要的出行方式,面臨城市巨大的客流量帶來(lái)的公交車(chē)調度,線(xiàn)路優(yōu)化等一系列問(wèn)題[1].合理的公交車(chē)調度有利于提升公交資源的利用水平,改善市民出行效率,緩解城市交通擁堵?tīng)顩r等。不合理的公交車(chē)調度容易造成公交資源的浪費,也可能導致客流量較大的站點(diǎn)市民候車(chē)時(shí)間過(guò)長(cháng),甚至無(wú)車(chē)可乘的情況。而公交車(chē)的調度,線(xiàn)路優(yōu)化等任務(wù),需要有公交乘客反饋的數據進(jìn)行支持,其中,公交乘客出行時(shí)的起點(diǎn)與終點(diǎn)數據(OD,Originand Destination)是當中比較重要的數據。

  公交乘客 OD 的作用可以體現在公交規劃,公交運營(yíng)和個(gè)體等方面。在公交規劃中,公交乘客的站間 OD 能夠反映公交站的交通壓力,可以為站臺的定位,規模設計或站點(diǎn)的增減等提供參考;公交線(xiàn)路上的乘客 OD 能夠為公交線(xiàn)路的增減或換向提供數據支撐。

  在公交線(xiàn)網(wǎng)層面,線(xiàn)網(wǎng) OD 能夠為大中運量的交通規劃提供依據。對于公交運營(yíng),乘客OD 是工作人員制訂公交時(shí)刻表的參考,是合理調度公交車(chē)輛的重要依據。對于個(gè)人,我們可以通過(guò)公交乘客 OD 數據分析乘客的出行特征[2],如乘客出行的時(shí)間分布或空間分布等,通過(guò)了解乘客的出行需求或出行習慣提高公交服務(wù)水平。

  傳統的 OD 獲取方法是通過(guò)人工調查,如使用問(wèn)卷調查、跟車(chē)調查等方法,這些方 法存在明顯的局限性。

  (1)調查成本高,人工成本花費較高且會(huì )受到人員素質(zhì),情緒,態(tài)度等影響;

  (2)采樣率低,采用人工調查的方法往往采樣率較低,因此很難保證其結論的合理性;

  (3)數據的時(shí)效性差,從方案的制定到數據采集整理耗時(shí)數月,且后期處理時(shí)間較長(cháng),以此無(wú)法保證其時(shí)效性[3].

  隨著(zhù)大數據技術(shù)的發(fā)展,采樣公交刷卡數據推算乘客 OD 得到越來(lái)越多的應用,但是,采用公交刷卡數據同樣存在不足:

  (1)存在樣本偏差,公交刷卡數據只針對持有公交 IC 卡的公交乘客樣本,使用現金支付或其他支付方法,如微信支付、支付寶等乘客沒(méi)有被統計,這種數據會(huì )導致統計結果存在偏差;站點(diǎn)的信息,而沒(méi)有下車(chē)站點(diǎn)的信息。因此,使用這種刷卡數據對 OD 進(jìn)行推斷時(shí)無(wú)法對結果進(jìn)行驗證。

  技術(shù)的發(fā)展為問(wèn)題的解決提供了新的方法和思路。計算機視覺(jué)技術(shù)的快速發(fā)展以及計算機運算能力的提高,同時(shí)基于深度學(xué)習的目標檢測與跟蹤,目標重識別技術(shù)的成熟為視頻數據的應用起到了很大的促進(jìn)作用。比如,谷歌的行人檢測系統通過(guò)車(chē)載攝像頭及感應器,實(shí)現對汽車(chē)周?chē)h(huán)境的檢測及精確定位,為自動(dòng)駕駛車(chē)輛的應用提供了支持。

  在機場(chǎng),高鐵站等大型交通場(chǎng)所,通過(guò)人臉識別技術(shù),對比乘客及身份證信息,可以免取票進(jìn)站,減少了紙質(zhì)車(chē)票的打印,大大節省的紙張的使用,同時(shí)節省了取票的時(shí)間。

  在安防領(lǐng)域,利用目標檢測技術(shù),高效識別指定人物,大大提高了逃犯抓取效率。

  同時(shí),城市公交車(chē)輛中安裝攝像頭已經(jīng)越來(lái)越普遍,通過(guò)攝像機采集的圖像數據包含大量待發(fā)掘和利用的信息。攝像機能夠完整地記錄公交乘客的信息,避免了采用單一刷卡數據導致的樣本偏差。視頻能夠直觀(guān)地記錄乘客的上下車(chē)站點(diǎn)信息,減少了使用復雜模型推算乘客 OD 時(shí)的不確定性,其結果可以被驗證。使用視頻數據也能減少問(wèn)卷調查或跟車(chē)調查等方法帶來(lái)的高成本和低收益問(wèn)題。

  綜上,公交乘客 OD 信息對公交問(wèn)題的解決有著(zhù)重要的重要,使用傳統的人工調查或公交 IC 刷卡數據推算的方法存在各種的不足,而公交攝像頭的普及和計算機視覺(jué)技術(shù)的發(fā)展與成熟為解決公交乘客 OD 的獲取提供了新的研究思路。在此背景下,本文研究使用計算機視覺(jué)技術(shù)提取公交乘客上下車(chē)站點(diǎn)對的方法,以達到提取公交乘客 OD 的目的。

  1.1.2 研究意義

  一、對于公交應用領(lǐng)域,乘客 OD 信息具有重要的價(jià)值。公交線(xiàn)路的規劃,公交資源的調度需要有數據支撐,其中,公交乘客的 OD 數據能夠反映居民的出現需求和規律,是公共交通線(xiàn)網(wǎng)規劃、公交調度管理、提高運營(yíng)效率的重要參考數據。

  二、使用視頻數據作為數據源,彌補其他數據存在的不足。我國各個(gè)城市的公交車(chē)已經(jīng)普遍安裝監控攝像頭,每天都會(huì )產(chǎn)生大量的視頻監控數據,利用公交車(chē)內攝像頭獲取的公交車(chē)內視頻數據,能夠挖掘公交客流,出行 OD 等信息。相比于其他數據源,視頻數據相對容易獲取,覆蓋面廣泛,而且能夠提供更加直觀(guān)的信息,彌補 IC 數據帶來(lái)的樣本偏差和無(wú)法驗證等問(wèn)題。

  三、將計算機視覺(jué)技術(shù)應用于乘客 OD 提取,減少人工成本。在計算機視覺(jué)技術(shù)尚未成熟之前,這些數據的利用率還遠遠不足。而計算機視覺(jué)技術(shù)的發(fā)展為這種數據的信息挖掘提供了支持。利用計算機視覺(jué)技術(shù)獲取公交上下車(chē)乘客的識別,這樣可以不借助人工調查的方法獲取乘客 OD 信息,大大減少了人工成本。這為構建環(huán)保高效智能低碳和以人為本的公共交通系統提供了快捷而準確的數據支撐,有著(zhù)非常重要的意義。

  1.2 國內外研究現狀

  1.2.1 公交乘客 OD 調查研究現狀

  公交乘客 OD 是指公交乘客出行時(shí)的起到與終點(diǎn)信息,它能夠反映公交乘客的出行空間分布。公交乘客 OD 調查的方法主要人工調查、基于公交大數據和基于手機移動(dòng)信號等方法。

  人工調查的包含常規問(wèn)卷調查方法和跟車(chē)調查等。問(wèn)卷調查的方法是指對公交乘客發(fā)放調查問(wèn)卷或采用微信問(wèn)卷等電子問(wèn)卷方式[4].公交乘客根據自身的情況填寫(xiě)上下車(chē)站點(diǎn)時(shí)間等信息,然后對調查問(wèn)卷進(jìn)行分析處理得到公交乘客的 OD 數據。這種方法是一種直接獲取乘客的出行信息的方法,但是該方法往往無(wú)法大規模開(kāi)展,采用率較低;其次,這種方法也受到公交乘客的個(gè)人意愿等影響,無(wú)法保證數據的全面性和客觀(guān)性。

  跟車(chē)調查法也是一種獲取公交乘客 OD 的方法。陳素平等人[5]提出一種跟車(chē)小票調查的方法。其過(guò)程如下:調查員在公交乘客上車(chē)時(shí)給其發(fā)放帶有編碼的小票,讓每一個(gè)公交乘客擁有唯一的編碼,然后在乘客下車(chē)時(shí)回收小票。通過(guò)這種方式可以對調查時(shí)段的公共乘客進(jìn)行追蹤,進(jìn)而得到同一乘客上下車(chē)的站點(diǎn)信息。但是這種方式同樣需要投入大量的勞動(dòng)力和公交乘客的配合,無(wú)法進(jìn)行大規模開(kāi)展。

  利用公交 IC 卡數據推算乘客出行 OD 是當前比較主流的 OD 調查方法。Barry J 等 人[6]基于 IC 刷卡數據,運用出行鏈的思想推導乘客下車(chē)站點(diǎn)。Zhao J H 等[7]將出行鏈和時(shí)間進(jìn)行匹配,從而推算出公交乘客上下車(chē)的站點(diǎn),進(jìn)一步使用出行鏈方法分析了單個(gè)乘客的出行特征。Munizage M 等[8]綜合運用了地鐵與公交車(chē)的 IC 卡數據、GPS 數據以及線(xiàn)路的站點(diǎn)數據,實(shí)現了從地鐵到地鐵以及地鐵到公交車(chē)兩類(lèi)出行方式下車(chē)站點(diǎn)的推導。Spiess H 等人[9]以上下車(chē)系數和公交車(chē)舒適度作為度量的指標,建立了基于公交網(wǎng)絡(luò )的分配算法,并通過(guò)以上兩個(gè)度量指標定義模型來(lái)分析公交乘客的 OD 矩陣。章威等人[10]結合公交車(chē)的刷卡數據與 GPS 數據對 OD 進(jìn)行提取,利用乘客刷卡數據,獲取乘客上車(chē)時(shí)間和線(xiàn)路等數據,再利用 GPS 技術(shù)得到出行者上下車(chē)時(shí)間和站點(diǎn)等信息,通過(guò)對這些信息的統計,推算公交乘客的出行 OD.這種方法成本較低,但該方法只統計使 用 IC 卡進(jìn)行乘車(chē)的公交乘客,統計結果存在一定的有偏性。帥富杰等[11]利用公交 IC 卡數據,提取乘客上下車(chē)站點(diǎn)的交集,并判斷出乘客出行的起止與換乘站點(diǎn),結合交通信息系統評價(jià)體系和社會(huì )經(jīng)濟評價(jià)模型,形成公交客流 OD 矩陣。

  利用手機移動(dòng)信號數據同樣可以獲得 OD 信息。Kang S P 等人[12]提出使用蜂窩基站估計 OD 的方法,通過(guò)采集出行人員的手機基站定位數據和 GPS 定位數據計算 OD 矩 陣。Sohn K 等[13]提出使用路徑選擇的概率和手機經(jīng)過(guò)蜂窩小區的時(shí)間獲取 OD 矩陣的方法, 手機經(jīng)過(guò)蜂窩小區某個(gè)位置的時(shí)間近似等于行人進(jìn)入和離開(kāi)小區邊界的時(shí)間差,路徑選擇的概率使用手機基于基站的軌跡進(jìn)行估計。劉淼等[14]將居民使用的手機作為檢 測器,利用基站的蜂窩小區定位信息和行人出行的特征,推斷出行人出行的起點(diǎn)和終點(diǎn),出行時(shí)間等信息。楊飛等[15]利用手機位置區的定位信息獲得 OD 矩陣,通過(guò)對兩條定位數據的空間距離的比較,以及與臨界狀態(tài)閾值的比較,結合行人之前的運動(dòng)狀態(tài),從而判定行人在各個(gè)定位點(diǎn)狀態(tài)。結合停留狀態(tài)等約束條件,推斷行人出行的起點(diǎn)與終點(diǎn),進(jìn)一步利用交通小區的劃分信息實(shí)現對各個(gè)起止點(diǎn)所歸屬的交通小區進(jìn)行判別,最后對各個(gè)小區的出行次數進(jìn)行統計,從而得到行人的 OD 矩陣。魏玉萍等[16]使用手機的定位數據獲取交通 OD.該方法首先分析了持有手機的行人在觀(guān)察時(shí)間內的 TDOA 定位數據,并以此判定行人的運動(dòng)狀態(tài),然后結合行人的停留狀態(tài)判別算法,獲得行人出行的起止點(diǎn),最后將獲得的起止點(diǎn)數據映射到交通小區中,得到行人出行 OD.

  研究人員同樣嘗試利用視頻數據提取公交客流 OD.楊軍峰等[17]提出利用公交車(chē)內前后門(mén)攝像頭獲取的乘客上下車(chē)視頻提取公交客流的方法。通過(guò)對乘客特征指標的分析,構建了乘客識別體系,實(shí)現對乘客辨別的定性和定量化,提出運用分層模糊匹配方法對上下車(chē)乘客進(jìn)行匹配,獲得單條線(xiàn)路公交客流 OD 矩陣。但是該方法需要人工判斷乘客的指標和提取,人工成本比較高,無(wú)法得到推廣使用。

  1.2.2 計算機視覺(jué)技術(shù)研究現狀

  (1)目標檢測

  目標檢測是計算機視覺(jué)的基礎任務(wù)之一。是指在給定的圖像中檢測目標物體,如行人,汽車(chē)等,目標檢測的目的是對于輸入的圖像,使用檢測算法得到具有位置信息的目 標,并給每個(gè)檢測出來(lái)的目標打上標簽[18].由于圖像中的目標一般具有不同的形態(tài),其運動(dòng)軌跡沒(méi)有規律,而且經(jīng)常出現目標被遮擋的情況。對于行人目標,由于行人具有相當的柔性,因此會(huì )有各種姿態(tài)和形狀,其外觀(guān)受穿著(zhù),姿態(tài),視角等影響非常大,因此,現在目標檢測仍然是具有挑戰性的視覺(jué)任務(wù)之一。目標檢測技術(shù)一般可以劃分為兩個(gè)發(fā)展階段,即傳統的目標檢測和基于深度學(xué)習的目標檢測兩個(gè)階段[19].

  傳統的目標檢測算法一般通過(guò)提取給定圖像的待選區域的特征,設計和訓練分類(lèi)算 法實(shí)現對目標的檢測任務(wù)。在預選區域中,算法應該包含圖像中所有可能出行目標的位置。由于目標出現的地方可能是圖像上的任何位置,因此算法通過(guò)設置多種尺寸大小,多種長(cháng)寬比的滑動(dòng)窗口實(shí)現對整張圖像的檢索[20],采用窮舉法得到所有可能出現目標的位置,我們通過(guò)對每個(gè)窗口計算特征向量,作為圖像的特征表達。為了實(shí)現對圖像特征的提取,需要解決目標在不同光照下圖像的變化,目標所處的背景變化復雜和目標自身可能存在多種形態(tài)等因素的影響。而其中,特征算子如 Haar,HOG,SURF 表現良好[21- 23].為了對提取的特征進(jìn)行分類(lèi),一般的分類(lèi)算法有支持向量機 SVM(Support VectorMachine),AdaBoost,Bagging 等[24-26].在目標檢測基準數據集 Pascal VOC 挑戰中,DPM檢測算法[27]是傳統檢測方法表現最好的檢測器,它連續獲得 2007 年到 2009 年的冠軍。

  DPM 算法采用"分而治之"的思想,包含訓練和推理兩個(gè)步驟。通過(guò)訓練學(xué)習分解目標的方法,通過(guò)推理將不同目標部件進(jìn)行組合。比如,對于行人,可以看作檢測頭部,手臂,腿等部件,后來(lái)一些研究在此基礎上,通過(guò)構建更加復雜的系統進(jìn)一步擴展和改進(jìn)[28-30].

  基于深度學(xué)習的目標檢測算法可以分為兩類(lèi):兩階段法和一階段法。兩階段法首先由算法生成多個(gè)候選框,然后通過(guò)卷積神經(jīng)網(wǎng)絡(luò )進(jìn)行分類(lèi),如 RCNN,Faster RCN 等[31- 34].Faster RCNN 是第一個(gè)端到端,且接近實(shí)時(shí)的深度學(xué)習檢測器。Faster RCNN 將目標檢測的基本組件:候選區提取、特征提取、目標分類(lèi)和邊框回歸等都集成到一個(gè)統一的學(xué)習框架,減少了計算冗余,極大提高了檢測速度。

  一階段法則是首先把圖片劃分為固定大小網(wǎng)格,然后進(jìn)行邊框回歸及分類(lèi),YOLO系列,SSD[35-38]是其中的代表。一階段法不再遵循二階段法中先提取候選框再分類(lèi)的檢測范式,而是將目標檢測問(wèn)題轉換為邊框回歸問(wèn)題。如 YOLO 算法使用一個(gè)神經(jīng)網(wǎng)絡(luò ),預測整張圖像中包含的物體,包括物體的包圍框(Bounding Box),類(lèi)別以及置信度。對于重復的預測,通過(guò)非極大值抑制(Non-Maximum Suppression, NMS)方法進(jìn)行處理,過(guò)濾預測結果中多余的檢測框。最近,建立在魯棒性的關(guān)鍵點(diǎn)估計上實(shí)現 anchor-free 的目標檢測器[39-40]取得了較好的檢測性能。

  (2)多目標跟蹤

  多目標跟蹤(Multi-Object Tracking,MOT)用于識別和跟蹤視頻中的多個(gè)對象,如汽車(chē)和行人等。例如,在自動(dòng)駕駛系統中,目標跟蹤算法要對運動(dòng)的車(chē)、行人和障礙物的運動(dòng)進(jìn)行跟蹤,對它們在未來(lái)的位置、速度等信息作出預判。與目標檢測算法不同的是,多目標跟蹤算法需要對獲取的目標檢測框進(jìn)行匹配,對視頻或連續圖像中的出現的同一目標進(jìn)行關(guān)聯(lián)匹配,得到其運動(dòng)的軌跡。因此,多目標跟蹤算法需要應對跟蹤目標形態(tài)前后可能發(fā)生的變化,還需要較好地應對目標對象所處環(huán)境或場(chǎng)景的變換。基于視覺(jué)的多目標跟蹤在行為分析、自動(dòng)駕駛等領(lǐng)域都有重要的應用。

  多目標跟蹤算法可以分為基于檢測的跟蹤(Detection-Based Tracking)和無(wú)檢測的跟蹤(Detection-Free Tracking)兩種算法[41].基于檢測的跟蹤算法首先需要使用目標檢測算法檢測出在每張圖像中的目標對象,然后利用跟蹤算法對相同的目標進(jìn)行關(guān)聯(lián);無(wú)檢測的跟蹤需要已知每個(gè)跟蹤目標第一次出現在圖像序列中的位置,然后分別對每個(gè)檢測目標進(jìn)行跟蹤。這個(gè)過(guò)程可以被看作是對同一圖像序列進(jìn)行多個(gè)單目標跟蹤。在這兩類(lèi)跟蹤算法中,基于目標檢測的跟蹤算法有著(zhù)運行效率較高,檢測性能比較平衡的特點(diǎn),因此得到了越來(lái)越廣泛的使用[42-43],它的重點(diǎn)在于如何完成新圖像中檢測的對象與已有軌跡的匹配任務(wù)。其中,有的研究基于線(xiàn)性規劃或圖的優(yōu)化方法[44-45],通過(guò)最小化代價(jià)函數解決跟蹤問(wèn)題,減少錯誤關(guān)聯(lián)。當檢測目標發(fā)生遮擋時(shí),或是視野內存在外觀(guān)比較相似的干擾項等問(wèn)題時(shí),一般通過(guò)加入外觀(guān)特征相似性的度量指標來(lái)得到較為準確的跟蹤精度[46-47].例如,基于檢測框的位置和大小等信息,結合卡爾曼濾波(Kalman Filter)和匈牙利算法(Hungarian algorithm)實(shí)現對行人目標運動(dòng)狀態(tài)估計和目標關(guān)聯(lián)的 SORT 多算法[46].(3)目標重識別目標重識別是指利用計算機視覺(jué)技術(shù)判斷圖像或者視頻序列中是否存在檢索目標的技術(shù),廣泛被認為是一個(gè)圖像檢索的子問(wèn)題,它利用目標重識別提取的外觀(guān)特征,再通過(guò)監督分類(lèi)和度量學(xué)習的方法區分不同的目標。當前,在行人重識別的領(lǐng)域中,一些研究取得了良好的重識別性能。Ristani 等人[48]提出了使用自適應加權三元組損失和難樣本挖掘的算法,應用于訓練 CNN 網(wǎng)絡(luò )特征中,從而提高了算法對不同類(lèi)別的區分性。

  Zhang 等人[49]在計算特征相似度時(shí)進(jìn)行了重新排序,進(jìn)而提高了目標重識別算法的檢測準確性。Luo 等人[50]對比了 Softmax,Triplet 等損失函數在重識別算法中的性能表現,同時(shí)總結了常用訓練技巧對模型產(chǎn)生的影響,提出的算法在 Market1501 數據集[51]上實(shí)現了較高的行人重識別的精度。Sun [52]等提出了均勻分塊的 Part-based ConvolutionalBaseline(PCB),探討了較優(yōu)的塊間組合方式,同時(shí)提出了基于分塊的 Refined partpooling(RPP),用注意力機制來(lái)對齊各個(gè)分塊[52].

  1.3 主要研究?jì)热菁罢鹿澃才?/strong>

  1.3.1 主要研究?jì)热?/strong>

  為了對公交車(chē)乘客上下車(chē)站點(diǎn)對進(jìn)行提取,我們首先需要檢測出視頻或圖像中的公 交乘客目標,獲取乘客目標的初始位置和候選圖像;然后對單個(gè)攝像機中的乘客目標進(jìn)行跟蹤,關(guān)聯(lián)圖像序列相同的乘客對象,得到各乘客在單個(gè)攝像頭中的運動(dòng)軌跡信息,根據軌跡提取得到乘客上車(chē)和下車(chē)數據集;最后,還應設計跨攝像頭的圖像間的匹配算 法,識別在兩個(gè)攝像頭中出現的相同乘客對象。因此,基于計算機視覺(jué)的公交乘客 OD提取任務(wù)分解為乘客目標檢測、乘客目標跟蹤與上下車(chē)乘客提取和跨攝像頭乘客重識別三個(gè)關(guān)聯(lián)的組件,實(shí)現的技術(shù)路線(xiàn)流程圖如圖 1-1 所示。

  本文主要研究公交車(chē)場(chǎng)景下的乘客 OD 信息獲取方法,利用計算機視覺(jué)等相關(guān)技術(shù),包括目標檢測、多目標跟蹤、目標重識別等,實(shí)現多攝像機視頻的公交乘客 OD 信息提 取。主要開(kāi)展的工作如下:
  ((1)基于深度學(xué)習的公交乘客目標檢測方法研究基于 YOLOv3 目標檢測框架構建公交乘客目標檢測模型。使用公交視頻數據進(jìn)行人工注記,獲得公交場(chǎng)景下的目標檢測數據集。然后使用公交車(chē)數據集對標注框進(jìn)行聚類(lèi)分析,獲得針對乘客目標的預選框。最后利用公交乘客數據集進(jìn)行訓練,提高目標檢 測模型的檢測精度。

  (2)目標跟蹤與基于軌跡的上下車(chē)乘客提取方法研究為了實(shí)現對多乘客目標的跟蹤,使用遞歸的卡爾曼濾波算法對目標檢測框進(jìn)行狀態(tài)預測和跟蹤,之后對視頻中連續多幀圖像的乘客進(jìn)行跟蹤指派,這里使用了外觀(guān)匹配、運動(dòng)匹配以及級聯(lián)匹配三種不同的匹配方法以達到更準確的匹配效果。然后基于跟蹤結果,對公交乘客處于不同種狀態(tài)下的運動(dòng)軌跡進(jìn)行分析,使用基準線(xiàn)相交判斷法判斷處于上下車(chē)狀態(tài)的乘客,并利用上車(chē)與下車(chē)乘客與基準線(xiàn)的角度關(guān)系,分離出上車(chē)與下車(chē)的乘客數據集。 (3)跨攝像頭公交乘客上下車(chē)重識別方法研究針對公交場(chǎng)景下的時(shí)空關(guān)系,對上車(chē)和下車(chē)數據集進(jìn)行關(guān)鍵幀提取并提出匹配策略。

  基于 PCB+RPP 重識別網(wǎng)絡(luò )框架,使用圖像隨機擦除法,分塊池化等優(yōu)化方法對模型進(jìn)行優(yōu)化,對比 Softmax 損失、標簽平滑正則化和三元組損失等損失函數對網(wǎng)絡(luò )的影響,提高重識別算法的檢測性能。最后針對公交乘客上下車(chē)數據集,使用優(yōu)化的重識別算法對上下車(chē)乘客進(jìn)行重識別,獲得乘客上下車(chē)站點(diǎn)對,從而得到公交乘客 OD 信息。

  1.3.2 章節安排

  文章包含六個(gè)章節,各章節內容安排如下:

  第一章 緒論,主要介紹文章的研究背景和意義。本章說(shuō)明公交客流 OD 對公交規劃和資源調度的重要性,總結了公交乘客 OD 提取和計算機視覺(jué)技術(shù)的研究現狀,最后介紹了本文的主要研究?jì)热菁罢鹿澃才拧?/p>

  第二章 計算機視覺(jué)識別理論與方法。本章介紹文中涉及的理論與方法。主要對深度學(xué)習方法和卷積神經(jīng)網(wǎng)絡(luò )網(wǎng)絡(luò )進(jìn)行了介紹。

  第三章 公交乘客目標檢測,基于 YOLOv3 框架實(shí)現對公交乘客目標的檢測。通過(guò)公交參考數據集的建立與檢測框聚類(lèi)分析等方法提高 YOLOv3 對公交乘客的檢測精度。

  第四章 公交乘客目標跟蹤與上下車(chē)提取。通過(guò)跟蹤算法實(shí)現公交乘客的多目標跟蹤,基于乘客的軌跡對上下車(chē)乘客進(jìn)行提取,從而得到公交乘客上車(chē)和下車(chē)數據集。第五章 公交乘客上下車(chē)重識別方法。對 PCB+RPP 重識別算法進(jìn)行測試,對比采用不同策略時(shí)重識別的性能。并基于公交車(chē)運行的場(chǎng)景,提出約束條件,將重識別算法應用于上車(chē)和下車(chē)數據集,得到公交乘客上下車(chē)站點(diǎn)對,實(shí)現對公交乘客的上下車(chē)識別。

  第六章 總結與展望。對本文的工作進(jìn)行總結,分析了研究存在的不足并討論和展望了該研究未來(lái)的方向。

 

  第 2 章 計算機視覺(jué)識別理論與方法

  2.1 深度學(xué)習基本理論

  2.1.1 感知機模型

  2.1.2 激活函數

  2.1.3 損失函數

  2.1.4 誤差傳遞方法

  2.2 卷積神經(jīng)網(wǎng)絡(luò )

  2.2.1 卷積層

  2.2.2 池化層

  2.2.3 全連接層

  2.3 本章小結

  第 3 章 公交乘客目標檢測

  3.1 公交乘客檢測算法

  3.1.1 網(wǎng)絡(luò )結構

  3.1.2 邊界框預測

  3.1.3 多尺度預測

  3.1.4 損失函數

  3.2 模型訓練與結果

  3.2.1 建立公交車(chē)行人數據集

  3.2.2 檢測框聚類(lèi)分析

  3.2.3 實(shí)驗結果

  3.3 本章小結

  第 4 章 公交乘客目標跟蹤與上下車(chē)提取

  4.1 跟蹤算法框架

  4.1.1 卡爾曼濾波估計目標運動(dòng)狀態(tài)

  4.1.2 檢測目標與跟蹤軌跡匹配

  4.2 上下車(chē)乘客提取

  4.2.1 公交乘客軌跡分析

  4.2.2 上下車(chē)乘客提取算法

  4.3 實(shí)驗結果

  4.4 本章小結

  第 5 章 跨攝像頭公交乘客上下車(chē)重識別

  5.1 基于公交場(chǎng)景條件約束

  5.1.1 基于遮擋關(guān)系的圖像提取

  5.1.2 公交車(chē)條件約束

  5.2 跨攝像頭目標重識別

  5.2.1 重識別算法框架

  5.2.2 網(wǎng)絡(luò )訓練與優(yōu)化方法

  5.2.3 損失函數

  5.3 實(shí)驗過(guò)程與結果

  5.4 本章小結

 

第 6 章 總結與展望

  6.1 總結

  本文基于公交車(chē)內視頻數據,利用計算機視覺(jué)技術(shù),對公交乘客進(jìn)行檢測,跟蹤以及重識別。最終實(shí)現了對公交車(chē)乘客上下車(chē)站點(diǎn)對的獲取。主要工作總結如下:

  (1)本文綜述了當前行人出行 OD 的調查方法以及計算機視覺(jué)技術(shù)的發(fā)展現狀。

  提出了使用公交車(chē)內視頻數據結合計算機視覺(jué)技術(shù)獲取公交乘客上下車(chē)站點(diǎn)對的檢測框架。該框架主要基于計算機視覺(jué)中的目標檢測,目標跟蹤以及重識別任務(wù)。 (2)對公交車(chē)內攝像頭拍攝的視頻數據處理分幀得到圖像,利用標注工具對乘客進(jìn)行人工標注,建立了公交乘客數據集;對數據集的檢測框進(jìn)行 K 值聚類(lèi),得到基于人類(lèi)目標的預設框;訓練了檢測人類(lèi)目標的 YOLOv3 檢測器,得到檢測器的 mAP 為 89.4,較好地實(shí)現了對公交乘客的目標檢測。

  (3)對檢測器得到的檢測框使用卡爾曼濾波算法,對檢測框進(jìn)行狀態(tài)預測,對之后連續多幀圖像中的行人進(jìn)行跟蹤,算法使用了表觀(guān)特征匹配、運動(dòng)匹配以及級聯(lián)匹配這三種匹配方法,從而達到更加準確的匹配,實(shí)現對多個(gè)乘客目標的連續跟蹤;對獲取的跟蹤對象,利用基準線(xiàn)法判別對象是否存在上下車(chē)行為,并采用閾值法判斷上車(chē)還是下車(chē),實(shí)現對檢測及跟蹤對象的過(guò)濾,得到上車(chē)乘客數據集和下車(chē)乘客數據集。

  (4)對目標進(jìn)行重識別,重識別算法基于 PCB 框架,對訓練的數據集使用隨機擦除算法進(jìn)行訓練。對比采用隨機擦除,加入驗證集和加入 RPP 網(wǎng)絡(luò )的方法對訓練結果的影響。其中,結果最好的重識別算法達到 Rank1 為 93.25 以及 mAP 為 82.06;本文基于公交場(chǎng)景,對進(jìn)行重識別的數據集進(jìn)行過(guò)濾及篩選,以此減少重識別的檢測時(shí)間,提高檢測精度。通過(guò)對過(guò)濾和篩選的數據集進(jìn)行重識別,最終得到公交乘客上下車(chē)站點(diǎn)對,實(shí)驗匹配的正確率為 80.4%.

  6.2 展望

  盡管本文在實(shí)現公交場(chǎng)景下的基于計算機視覺(jué)的公交乘客上下車(chē)識別研究中獲得初步的成果,并且在克服乘客目標檢測不穩定,乘客跟蹤時(shí)丟失目標問(wèn)題等問(wèn)題做出了有效嘗試。但在面對實(shí)際場(chǎng)景中,仍存在一些挑戰。對此,本研究未來(lái)的工作可以在以下方面進(jìn)行

  (1)研究具有更高檢測精度及泛化性能的目標檢測器本文中的目標檢測算法采用當前比較流行的 YOLOv3 檢測算法,其檢測速度快,但精度并不是當前檢測器中精度最高的。后續工作可以對比不同檢測算法,采用不同的訓練策略,進(jìn)一步提高檢測的精度。其次,對公交乘客數據集,可以采集覆蓋面更加廣泛的公交視頻數據,以面對更加復雜的現實(shí)場(chǎng)景。如不同天氣情況中,晴天和雨天的光照不同。不同的公交線(xiàn)路,汽車(chē)經(jīng)過(guò)的道路環(huán)境不同,背景更加復雜多變。另外,本文基于公交車(chē)現有的攝像機鏡頭進(jìn)行實(shí)驗,該鏡頭方向不可避免會(huì )有乘客遮擋情況,可以考慮對攝像機的位置和角度進(jìn)行變換,以最大可能地較少遮擋。

  (2)研究跟蹤效果更好的跟蹤器及上下車(chē)乘客判別算法本文通過(guò)對檢測框采用卡爾曼濾波并使用基于外觀(guān),位置和級聯(lián)匹配策略,較好地克服檢測器漏檢或發(fā)生遮擋時(shí)的目標丟失的問(wèn)題,但在面對高峰時(shí)段,某些站點(diǎn)乘客集中大量上車(chē)或下車(chē)情況時(shí),依舊會(huì )發(fā)生漏檢,跟蹤丟失的問(wèn)題。對此,需要考慮更好地解決多目標跟蹤的問(wèn)題。在對上下車(chē)乘客進(jìn)行判別中,會(huì )導致部分乘客錯誤地被過(guò)濾,導致漏檢。因此,需要有更好的判別算法,以減少錯誤。

  (3)挖掘更深層次的公交場(chǎng)景時(shí)空信息在公交車(chē)場(chǎng)景中,還存在許多可以利用的時(shí)空關(guān)系。在車(chē)輛停站及車(chē)門(mén)開(kāi)關(guān)的處理上,本文基于人工方法進(jìn)行處理,對于該任務(wù),可以通過(guò)利用車(chē)輛的速度,車(chē)門(mén)的開(kāi)關(guān),車(chē)輛 GPS 定位等信息實(shí)現自動(dòng)檢測,從而盡量減少人工的干預。另外,本文只對單支路線(xiàn),單車(chē)輛進(jìn)行實(shí)驗,如何針對車(chē)輛與車(chē)輛之間的乘客提取 OD,形成線(xiàn)路 OD 或線(xiàn)網(wǎng)OD 也是今后值得研究的方向。

 

 

  參 考 文 獻

  [1] 郭繼孚, 劉瑩, 余柳。 對中國大城市交通擁堵問(wèn)題的認識[J]. 城市交通, 2011,(02):8-14+6.

  [2] 蘆方強, 陳學(xué)武, 胡曉健。 基于公交 OD 數據的居民公交出行特征研究[J]. 交通運輸工程與信息學(xué)報, 2010,(02):31-36+47.

  [3] 劉博愷。 現狀 OD 調查方法的不足與展望[J]. 山東交通科技, 2016,(01):109-110.

  [4] 王園園, 黃鳴。 基于公交站點(diǎn)的客流 OD 預測[J]. 城市公用事業(yè), 2007(05):14-17+50.

  [5] 陳素平, 陳學(xué)武, 楊敏。 基于小票法的公交線(xiàn)路客流 OD 分析方法[J]. 交通信息與安全,2009,27(01):11-14.

  [6] Barry J, Newhouser R, Rahbee A, et al. Origin and Destination Estimation in New York City withAutomated Fare System Data[J]. Transportation Research Record Journal of the Transportation ResearchBoard,2002,1817:183-187.

  [7] Zhao J H. The planning and analysis implications of automated data collection systems: rail transit ODmatrix inference and path choice modeling examples[J]. Environmental Science & Technology, 2004, 39(23):9309-9316.

  [8] Munizaga M, Devillaine F, Navarrete C, et al. Validating travel behavior estimated from smartcard data[J].Transportation Research Part C: Emerging Technologies,2014,44(4):70-79.

  [9] Spiess H, Florian M. Optimal Strategies: A new assignment Model for transit network. TransportationResearch.1989,23B:83-102

  [10] Zhang W, Xu J M. Approach to Collection of Bus OD Matrix Based on GPS and Bus Intelligent Card[J].Computer and Communications.2006, (24)2:21-23

  [11] 師富杰。 基于 IC 卡數據的公交 OD 矩陣構造方法研究[D]. 長(cháng)春:吉林大學(xué),2004

  [12] Yoo B S, Kang S P, Chon K, et al. Origin-Destination Estimation Using Cellular Phone BS Information[J]. Journal of the Eastern Asia Society for Transportation Studies.2005,6:2574-2588.

  [13] Sohn K, Kim D. Dynamic Origin-Destination Flow Estimation Using Cellular CommunicationSystem[J]. IEEE Transactions on Vehicular Technology.2008,57(5):2703-2713.

  [14] 劉淼, 張小寧, 張紅軍。 基于手機信息的居民出行調查[J]. 城市道橋與防洪。2007,3:18-21.

  [15] 楊飛。 基于手機定位的交通 OD 數據獲取技術(shù)[J]. 系統工程。2007,25(1):42-48.

  [16] 魏玉萍, 韓印。 基于手機定位的交通 OD 獲取技術(shù)[J]. 交通與運輸:學(xué)術(shù)版。2011,12:33-36.

  [17] 楊軍峰。 基于公交視頻的公交線(xiàn)路客流 OD 獲得方法研究[D]. 長(cháng)安大學(xué),2013.

  [18] Wu X, Sahoo D, Hoi S C, et al. Recent Advances in Deep Learning for Object Detection.[J]. arXiv:Computer Vision and Pattern Recognition, 2019.

  [19] Zou Z, Shi Z, Guo Y, et al. Object Detection in 20 Years: A Survey[J]. arXiv: Computer Vision andPattern Recognition, 2019.

  [20] Vedaldi A, Gulshan V, Varma M, et al. Multiple kernels for object detection[C]. International Conferenceon Computer Vision, 2009: 606-613.

  [21] Lienhart R, Maydt J. An extended set of Haar-like features for rapid object detection[C]. InternationalConference on Image Processing, 2002: 900-903.

  [22] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]. Computer Vision andPattern Recognition, 2005: 886-893.

  [23] Bay H, Tuytelaars T, Van Gool L, et al. SURF: speeded up robust features[C]. European Conference onComputer Vision, 2006: 404-417.

  [24] Hearst M A , Dumais S T , Osman E , et al. Support vector machines[J]. IEEE Intelligent Systems, 1998,13(4):18-28.

  [25] Freund Y, Schapire R E. Experiments with a new boosting algorithm[C]. International Conference onMachine Learning, 1996: 148-156.

  [26] Opitz D W, Maclin R. Popular ensemble methods: an empirical study[J]. Journal of ArtificialIntelligence Research, 1999, 11(1): 169-198.

  [27] Felzenszwalb P F, Mcallester D, Ramanan D, et al. A discriminatively trained, multiscale, deformablepart model[C]. Computer Vision and Pattern Recognition, 2008: 1-8.

  [28] Pedro F Felzenszwalb, Ross B Girshick, David McAllester, et al. Object Detection with DiscriminativelyTrained Part-Based Models[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2010,32(9):1627-1645.

  [29] Ross B Girshick, Pedro F Felzenszwalb, David Mcallester, Object Detection with GrammarModels[J].Advances in Neural Information Processing Systems, 2011,442-450.

  [30] Girshick R, Felzenszwalb P F, Mcallester D, et al. Object Detection with Grammar Models[C]. NeuralInformation Processing Systems, 2011: 442-450.

  [31] Girshick R, Donahue J, Darrell T, et al. Rich Feature Hierarchies for Accurate Object Detection andSemantic Segmentation[C]. Computer Vision and Pattern Recognition, 2014: 580-587.

  [32] Girshick R. Fast R-CNN[C]. International Conference on Computer Vision, 2015: 1440-1448.

  [33] Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposalnetworks[C]. Neural Information Processing Systems, 2015: 91-99.

  [34] Lin T, Dollar P, Girshick R, et al. Feature Pyramid Networks for Object Detection[C]. Computer Visionand Pattern Recognition, 2017: 936-944.

  [35] Redmon J, Divvala S K, Girshick R, et al. You Only Look Once: Unified, Real-Time ObjectDetection[C]. Computer Vision and Pattern Recognition, 2016: 779-788.

  [36] Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger[C]. Computer Vision and PatternRecognition, 2017: 6517-6525.

  [37] Redmon J, Farhadi A. YOLOv3: An Incremental Improvement[J]. arXiv: Computer Vision and PatternRecognition, 2018.

  [38] Liu W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector[C]. European Conference onComputer Vision, 2016: 21-37.

  [39] Law H, Deng J. CornerNet: Detecting Objects as Paired Keypoints[C]. European Conference onComputer Vision, 2018: 765-781.

  [40] Zhou X, Zhuo J, Krahenbuhl P, et al. Bottom-Up Object Detection by Grouping Extreme and CenterPoints[C]. Computer Vision and Pattern Recognition, 2019: 850-859.

  [41] Ciaparrone G, Sanchez F L, Tabik S, et al. Deep learning in video multi-object tracking: A survey[J].

  Neurocomputing, 2020: 61-88.

  [42] Geiger A, Lauer M, Wojek C, et al. 3D Traffic Scene Understanding From Movable Platforms[J]. IEEETransactions on Pattern Analysis and Machine Intelligence, 2014, 36(5): 1012-1025.

  [43] Zhang H, Geiger A, Urtasun R, et al. Understanding High-Level Semantics by Modeling TrafficPatterns[C]. International Conference on Computer Vision, 2013: 3056-3063.

  [44] Tang S, Andriluka M, Andres B, et al. Multiple People Tracking by Lifted Multicut and Person Reidentification[C]. Computer Vision and Pattern Recognition, 2017: 3701-3710.

  [45] Tang Z, Wang G, Xiao H, et al. Single-Camera and Inter-Camera Vehicle Tracking and 3D SpeedEstimation Based on Fusion of Visual and Semantic Features[C]. Computer Vision and Pattern Recognition,2018: 108-115.

  [46] Bewley A, Ge Z, Ott L, et al. Simple online and realtime tracking[C]. International Conference on ImageProcessing, 2016: 3464-3468.

  [47] Wojke N, Bewley A, Paulus D, et al. Simple online and realtime tracking with a deep associationmetric[C]. International Conference on Image Processing, 2017: 3645-3649.

  [48] Ristani E, Tomasi C. Features for Multi-target Multi-camera Tracking and Re-identification[C].

  Computer Vision and Pattern Recognition, 2018: 6036-6046.

  [49] Zhang Z, Wu J, Zhang X, et al. Multi-Target, Multi-Camera Tracking by Hierarchical Clustering: RecentProgress on DukeMTMC Project[C]. Computer Vision and Pattern Recognition, 2017.

  Computer Vision and Pattern Recognition, 2019.

  [51] Zheng L, Shen L, Tian L, et al. Scalable Person Re-identification: A Benchmark[C]. InternationalConference on Computer Vision, 2015: 1116-1124.

  [52] Sun Y, Zheng L, Yang Y, et al. Beyond Part Models: Person Retrieval with Refined Part Pooling[J].

  Computer Vision - ECCV 2018. 15th European Conference. Proceedings: Lecture Notes in ComputerScience,2017:501-518[53] Mcculloch W. Pitts W.A logical calculus of the ideas immanent in nervous activity[J]. The Bulletin ofmathematical biophysics,1943,5(4):115-133.

  [54] Hebb D O. Elaborations of Hebb's cell assembly theory[M]. Neuropsychology after Lashley.Routledgc,2018:483-496.

  [55] Kobayashi M. Hyperbolic Hopfield neural networks[J]. IEEE Transactions on Neural Networks andLearning Systcms,2013,24(2):335-341.

  [56] Hameed AA, Karlik B, Salman M S. Back-propagation algorithm with variable adaptive momentum[J].Knowledge-based systcms,2016,114:79-87.

  [57] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J].science,2006,313(5786):504-507.

  [58] Fukushima K. Neocognitron: A self-organizing neural network model for a mechanism of patternrecognition unaffected by shift in position[J]. Biological Cybcrnctics,1980,36(4):193-202.

  [59] 金翠, 王洪元, 陳首兵。 基于隨機擦除行人對齊網(wǎng)絡(luò )的行人重識別方法[J]. 山東大學(xué)學(xué)報(工學(xué)版),2018,48(6):67-73.

  [60] Deng W, Zheng L, Ye Q, et al. Image-image domain adaptation with preserved self-similarity anddomain-dissimilarity for person re-identification[C], Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition.2018:994-1003.

  [61] He X, Zhou Y, Zhou Z, et al. Triplet-center loss for multi-view 3D object retrieval[C], Proceedings ofthe IEEE Conference on Computer Vision and Pattern Recognition.2018:1945-1954.

  [62] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[C],Proceedings of the IEEE conference on computer vision and pattern recognition.2016:2818-2826.

 

 

致 謝

  時(shí)光荏苒,日月如梭,又一年的畢業(yè)季到來(lái)了,回想這幾年的研究生生活,我要對所有指導、幫助和支持過(guò)我的人致以最誠摯的感謝!首先,我要感謝的是我的導師黃正東教授。三年前,有幸成為黃老師的學(xué)生,在研究生生涯的三年中,我在黃老師的指導下,進(jìn)行了科研調查,專(zhuān)利申請,論文投稿,畢業(yè)設計等工作,我從中得到了很多的進(jìn)步,也讓我得到了成長(cháng)。黃老師知識淵博、視野開(kāi)闊、治學(xué)精神嚴謹、科研精益求精,平易近人的待人風(fēng)格和寬容的心懷給我帶來(lái)了很大影響,讓我終生受益。黃老師為人豁達而寬和,不僅是我學(xué)業(yè)上的良師,也是我做人的楷模。老師在學(xué)業(yè)上的悉心指導,在科研上的盡心引導,在生活中的熱心幫助,令我感激不已,在此謹向導師致以最衷心的感謝和最崇高的敬意!

  其次,我要感謝給我們上課的張星、涂偉、樂(lè )陽(yáng)、夏吉喆等老師,他們的課程活潑生動(dòng),讓我受益良多。我要感謝同班優(yōu)秀又有趣的徐逸、朱婷婷、吳凱鵬、黃嘉俊、董軒妍和金偉,很榮幸能夠成為地信中的一員,一起上課學(xué)習和交流。感謝同門(mén)的伍寶、林澤平、韋艷莎和張丹鳳,我們在黃老師的指導下一起科研調查和學(xué)習。感謝趙天鴻師兄,在我的畢業(yè)設計中,趙師兄耐心指導,提出了許多寶貴的意見(jiàn)和建議,給予了我很大的幫助。

  最后要感謝我的父母、家人和朋友們。他們的支持是我讀研的動(dòng)力,也是我學(xué)習和科研的動(dòng)力。

  他們在讀研期間對我的物質(zhì)資助和關(guān)心,也是我讀研期間可以心無(wú)旁騖學(xué)習和研究的基礎。

(如您需要查看本篇畢業(yè)設計全文,請您聯(lián)系客服索取)

 

 


相關(guān)內容
相關(guān)標簽:計算機畢業(yè)設計
好優(yōu)論文定制中心主要為您提供代做畢業(yè)設計及各專(zhuān)業(yè)畢業(yè)論文寫(xiě)作輔導服務(wù)。 網(wǎng)站地圖
所有論文、資料均源于網(wǎng)上的共享資源以及一些期刊雜志,所有論文僅免費供網(wǎng)友間相互學(xué)習交流之用,請特別注意勿做其他非法用途。
如有侵犯您的版權或其他有損您利益的行為,請聯(lián)系指出,論文定制中心會(huì )立即進(jìn)行改正或刪除有關(guān)內容!