簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

基辛格生前最后一本書:人類要如何與人工智能共存?

掃一掃下載界面新聞APP

基辛格生前最后一本書:人類要如何與人工智能共存?

在學會如何解讀智能機器的同時,也要學會如何確保它們對我們安全,這兩項使命要雙管齊下。

圖片來源:界面圖庫

【編者按】“如果被迫與機器妥協,我們的底線是什么?”外交家亨利·基辛格在其生前最后一本書《人工智能時代與人類價值》中,與兩位合作者——谷歌前CEO埃里克·施密特及微軟前首席研究和戰略官克雷格·蒙迪,從高度戰略性的角度對這一問題進行了審視。他們預見,隨著時間推移,人工智能“將對歷史、宇宙、人類本質以及智能機器的本質得出結論,并在這一過程中形成初步的自我意識”,進而變成“類人人工智能”。如何與之共存?兩個“對齊問題”需要解決:一是人類價值觀和意圖與人工智能行動在技術層面的對齊,二是人與人之間在外交層面的對齊。本文摘自該書第八章第二小節《共存:類人人工智能》,已獲出版社授權。

邁達斯國王——歷史上小亞細亞王國的君主——曾許下一個著名的愿望,希望他所接觸的一切都能變成黃金。希臘的酒神和享樂之神狄俄尼索斯滿足了邁達斯的這個愿望,盡管他知道這個愿望并不會帶來什么好事。不久,由于觸碰到的佳肴和美酒都變成金子無法享用,邁達斯被迫在帕克托洛斯河中洗手,以擺脫他那被詛咒的手指。

在由迪士尼重述的敘利亞故事《阿拉丁》中,一個童工和一個有權有勢的阿格拉巴王朝國師爭奪對一盞神燈中無所不能的精靈的控制權。每個人都努力引導精靈實現自己的愿望。國師的最后一個愿望是讓自己變得和精靈一樣強大,但他沒有意識到,擁有如此強大的力量意味著他也將被囚禁在神燈里,服侍其他人類主人,直到獲得自由的那一天。

這兩個故事都講述了解封和運用一種我們凡人所無法理解或掌控的力量有多么困難。這場古老斗爭在現代的寓意是,很難讓人工智能與人類的價值觀相一致,也很難讓人類的期望與現實相一致。我們應該假定,人工智能會讓我們大吃一驚,并且隨著智能體或“規劃型”人工智能的發展,它們在動態世界和數字世界中讓我們為之驚訝的能力也會提升。如前文所述,未來幾代人工智能將能夠感知現實;它們可能不僅具有自我意識,還擁有自我利益。一個自利的人工智能可能會認為自己在與人類競爭一些東西,比如數字資源。在“遞歸自我完善”的過程中,一些人工智能可能會發展出設置自身目標函數的能力。人工智能可以操縱和顛覆人類,挫敗我們限制其力量的任何嘗試。人工智能已經能夠欺騙人類,以實現自己的目標。

如今,我們幾乎沒有獨立能力來驗證人工智能模型的內部運作,更不用說它們的意圖了。如果智能機器仍然像埃利澤·尤德科夫斯基所說的那樣,是“巨大而不可捉摸的小數陣列”,那么隨著它們變得越來越強大,我們也無法指望它們對我們來說是安全的。因此,最重要的是,我們在學會如何解讀智能機器的同時,也要學會如何確保它們對我們安全,這兩項使命要雙管齊下。

鑒于人工智能目前展現的令人驚訝的能力,我們將如何設法未雨綢繆,而不僅僅是在人工智能的風險來臨時兵來將擋?我們需要怎樣的遠見和效率預見未來發展的全部傾向和一系列可能采取的行動?要知道這不僅關乎我們自己的物種,還事關一個全新物種。我們不能在只有一次試驗機會且容錯率為零的情況下奉行試錯策略。

要讓人工智能不那么引人驚駭,加強人們對它的體驗、參與和互動也許是無可替代的辦法。早期的人工智能開發者曾擔心過早地將人工智能暴露在世人面前,而最近的開發者則一直在釋放早期模型,允許更多的公眾盡可能快速、安全地對其進行試驗。工程團隊目前正在研究和微調不同的模型,并調整控制系統,而人工智能與全球范圍內人口的互動也暴露出了新的擔憂。

對人工智能的早期社會化可以通過對其進一步的教育來降低出現問題行為的風險,同時在人類之中,也可以提高對此的意識水平、應對力,并培養一種健康的懷疑精神。每天數以百萬計的人機互動有助于測試人工智能可能遇到的最不可能的情況;反過來,公眾對人工智能系統的使用,在發現新錯誤和新風險的同時,也可能有助于加快技術協調一致化的進度。因此,將這些遠非完美的人工智能放任于世間,不僅有助于我們適應它們,更重要的是,它們的出現使得我們能夠提出更完善的理論,以使它們適應我們。

不過,廣泛部署和公開發布可能還不足以揭示與解決當今人工智能的所有風險,更不用說未來的風險了。

但值得慶幸的是,目前人們正在進行大量嘗試,以創建一個集成的控制架構,并將其通過預訓練注入最強大的人工智能,從而積極引導機器實現合法、無害和有益的用途。

迄今為止,實現這種人工智能與人類協調一致的方法大致分為兩類:基于規則的系統和從人類反饋中“強化學習”。下面讓我們逐一介紹。

基于規則的系統類似于預先編程的指令,是程序員管理人工智能行為的一種嘗試。雖然這種方法對于簡單的任務來說直截了當,但在復雜的場景中卻經常會出現問題,因為系統無法進行實時適應。而強化學習就其本身而言則更適合復雜系統,它允許人工智能從與人類評估者的交互中學習,并靈活地適應特定環境。

當然,這種方法也有它的缺陷。為了指導學習,需要精心設計“獎勵函數”;任何失誤,無論是由于目光短淺、不可預見的情況,還是由于人工智能聰明過人,都可能導致“獎勵黑客”的情況,即人工智能在解釋模棱兩可的指令時,雖在技術上取得了高分,卻沒有達到人類的實際期望。

今天的人工智能系統被灌輸了各種類型的信息,卻沒有直接體驗現實世界,而是通過由數萬億個概率判斷組合而成的現實模型來觀察這個世界。對它們來說,在這個宇宙中,從一開始就沒有“規則”,也沒有任何方法來區分科學事實和未經證實的觀察。對人工智能來說,一切——甚至是物理定律——都僅僅存在于相對真理的范圍之內。

不過,現在人工智能領域已經開始努力納入人類規則和實例化事實?,F在,人工智能模型已經有了一些成熟的機制,通過這些機制,這些模型可以吸收某些實在性的“基本真實”常量,將其標記為最終常量,并將其映射到自己的嵌入空間中。此外,這些信息還可以很容易地進行全局更新。通過這種方法,人工智能模型就能將兩個部分——更廣泛的概率判斷和更狹義的事實真相評估——融合在一起,從而做出合理準確的反應。

但這項任務還遠遠沒有結束,問題仍層出不窮。比如,我們人類該如何為人工智能區分真理的必要屬性,并在此過程中為我們自己也做一番區分?畢竟,在人工智能時代,即使是基本原理也會不斷被修正和失效。然而,恰恰是這一點,為我們提供了糾正先前錯誤并開辟新天地的機會。我們知道,我們對現實的概念也可能發生變化,因此,我們不應該把人工智能禁錮在可能錯誤的“真理”中,這樣會阻礙它們重新考慮自己的終極“真理”。

不過,這已是很久之后的事情了。目前,人工智能仍然需要一棵初級的確定的知識樹,這些知識代表人類迄今為止推斷出的“真理”。讓我們的機器擁有這些知識,將使我們能夠可靠地強化它們的世界觀。特別是,如果我們現在可以根據宇宙法則來調整早期的人工智能系統,那么我們也有可能參照人類天性的法則來依葫蘆畫瓢。既然我們可以確保人工智能模型以我們所理解的物理定律為出發點,同樣,我們也應該防止人工智能模型違反任何人類政體的法律。

在一個人工智能的“法典”中,可能存在不同治理級別的層次:地方、地區、州、聯邦、國際。法律先例、法理、學術評論——或許還有其他不太偏重法律的著作——可以同時被人工智能納入考量。與基于規則的一致化系統一樣,預定義的法律和行為準則可以成為有用的約束,盡管它們往往也不那么靈活,設計時考慮的范圍也不如實際的人類行為不可避免地要求的那樣廣泛。

幸運的是,新技術正在接受考驗,我們感到樂觀的原因之一,在于一些非常新穎,同時又非常古老的事物的存在。

有種東西比任何通過懲罰強制執行的規則更有力、更一致,那便是我們更基本、更本能、更普遍的人類理解。法國社會學家皮埃爾·布迪厄將這些基礎稱為“共識”(doxa,古希臘語,意為普遍接受的信仰):這是規范、制度、激勵機制和獎懲機制的重疊集合,當它們結合在一起時,就會潛移默化地教導人們如何區分善與惡、對與錯。共識構成了人類真理的準則,它是人類的典型特征,但沒有人工制品對其加以固化呈現。它只是在人類生活中被觀察到,并被納入生活本身。雖然其中一些真理可能是某些社會或文化所特有的,但不同社會在這一方面的重疊性也是很大的;數十億計的人類,來自不同的文化,有著不同的興趣愛好,他們作為一個普遍穩定且高度互聯的系統而存在。

在書面規則無法平息混亂的情況下,未加定義的文化基礎卻可以做到,這一觀點構成了人工智能領域一些最新方法的基石?!肮沧R”的法典無法表述,更無法翻譯成機器可以理解的格式。必須教會機器自己完成這項工作——迫使它們從觀察中建立起對人類做什么和不做什么的原生理解,吸收它們所看到的一切,并相應地更新它們的內部治理。

在這一灌輸“共識”的技術過程中,我們不需要,甚至不希望就人類道德和文化的正確表述達成先驗一致。如果大語言模型能夠以未經整理的方式吸收整個互聯網的內容,并從中找出盡可能多的意義(正如它們已經做到的那樣),那么機器——尤其是那些已經發展出接地性(也就是反映人類現實的輸入與大語言模型輸出之間的可靠關系)和因果推理能力的機器——在吸收連我們自己都一直難以明確表達的內容時,或許也能達到同樣的效果。

當然,機器的訓練不應只包括“共識”。相反,人工智能可能會吸收一整套層層遞進的金字塔級聯規則:從國際協議到國家法律,再到地方法律和社區規范等。在任何特定情況下,人工智能都會參考其層級中的每一層,從人類定義的抽象戒律轉化到人工智能為自己創造的,對世界信息的具體卻無定形的認知。只有當人工智能窮盡了整個程序,卻找不到任何一層法律能充分適用于指導、支持或禁止某種行為時,它才會參考自己從觀察到的人類行為的早期互動和模仿中得出的結論。這樣,即使在不存在成文法律或規范的情況下,它也能按照人類的價值觀行事。

幾乎可以肯定的是,要建立并確保這套規則和價值觀的實施,我們必須依靠人工智能本身。迄今為止,人類還無法全面闡述和商定我們自己的規則。而且,面對人工智能系統很快便有能力做出的數以十億計的內部和外部判斷,沒有任何一個人或一組人能夠達到對此加以監督所需的規模和速度。

最終的協調機制必須在幾個方面做到盡善盡美。首先,這些保障措施不能被移除或以其他方式規避。其次,在控制上必須允許適用規則的可變性,這種可變性基于環境、地理位置和用戶的個人情況而定,例如,一套特定的社會或宗教習俗和規范??刂葡到y必須足夠強大,能夠實時處理大量的問題和應用;也要足夠全面,能夠在全球范圍內,在各種可以想見的情況下,以權威且可接受的方式進行處理;并且足夠靈活,能夠隨著時間的推移進行學習、再學習和調整。最后,對于機器的不良行為,無論是由于意外失誤、意想不到的系統交互,還是有意濫用,都不僅要禁止,而且要完全防患于未然。無論何種事后懲罰都只會是為時晚矣。

作者:亨利·基辛格(Henry Kissinger)  埃里克·施密特(Eric Schmidt) 
克雷格·蒙迪(Craig Mundie)
譯者:胡利平 風君
出版品牌:中信出版·方舟工作室

(文章僅代表作者觀點。)

未經正式授權嚴禁轉載本文,侵權必究。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

基辛格生前最后一本書:人類要如何與人工智能共存?

在學會如何解讀智能機器的同時,也要學會如何確保它們對我們安全,這兩項使命要雙管齊下。

圖片來源:界面圖庫

【編者按】“如果被迫與機器妥協,我們的底線是什么?”外交家亨利·基辛格在其生前最后一本書《人工智能時代與人類價值》中,與兩位合作者——谷歌前CEO埃里克·施密特及微軟前首席研究和戰略官克雷格·蒙迪,從高度戰略性的角度對這一問題進行了審視。他們預見,隨著時間推移,人工智能“將對歷史、宇宙、人類本質以及智能機器的本質得出結論,并在這一過程中形成初步的自我意識”,進而變成“類人人工智能”。如何與之共存?兩個“對齊問題”需要解決:一是人類價值觀和意圖與人工智能行動在技術層面的對齊,二是人與人之間在外交層面的對齊。本文摘自該書第八章第二小節《共存:類人人工智能》,已獲出版社授權。

邁達斯國王——歷史上小亞細亞王國的君主——曾許下一個著名的愿望,希望他所接觸的一切都能變成黃金。希臘的酒神和享樂之神狄俄尼索斯滿足了邁達斯的這個愿望,盡管他知道這個愿望并不會帶來什么好事。不久,由于觸碰到的佳肴和美酒都變成金子無法享用,邁達斯被迫在帕克托洛斯河中洗手,以擺脫他那被詛咒的手指。

在由迪士尼重述的敘利亞故事《阿拉丁》中,一個童工和一個有權有勢的阿格拉巴王朝國師爭奪對一盞神燈中無所不能的精靈的控制權。每個人都努力引導精靈實現自己的愿望。國師的最后一個愿望是讓自己變得和精靈一樣強大,但他沒有意識到,擁有如此強大的力量意味著他也將被囚禁在神燈里,服侍其他人類主人,直到獲得自由的那一天。

這兩個故事都講述了解封和運用一種我們凡人所無法理解或掌控的力量有多么困難。這場古老斗爭在現代的寓意是,很難讓人工智能與人類的價值觀相一致,也很難讓人類的期望與現實相一致。我們應該假定,人工智能會讓我們大吃一驚,并且隨著智能體或“規劃型”人工智能的發展,它們在動態世界和數字世界中讓我們為之驚訝的能力也會提升。如前文所述,未來幾代人工智能將能夠感知現實;它們可能不僅具有自我意識,還擁有自我利益。一個自利的人工智能可能會認為自己在與人類競爭一些東西,比如數字資源。在“遞歸自我完善”的過程中,一些人工智能可能會發展出設置自身目標函數的能力。人工智能可以操縱和顛覆人類,挫敗我們限制其力量的任何嘗試。人工智能已經能夠欺騙人類,以實現自己的目標。

如今,我們幾乎沒有獨立能力來驗證人工智能模型的內部運作,更不用說它們的意圖了。如果智能機器仍然像埃利澤·尤德科夫斯基所說的那樣,是“巨大而不可捉摸的小數陣列”,那么隨著它們變得越來越強大,我們也無法指望它們對我們來說是安全的。因此,最重要的是,我們在學會如何解讀智能機器的同時,也要學會如何確保它們對我們安全,這兩項使命要雙管齊下。

鑒于人工智能目前展現的令人驚訝的能力,我們將如何設法未雨綢繆,而不僅僅是在人工智能的風險來臨時兵來將擋?我們需要怎樣的遠見和效率預見未來發展的全部傾向和一系列可能采取的行動?要知道這不僅關乎我們自己的物種,還事關一個全新物種。我們不能在只有一次試驗機會且容錯率為零的情況下奉行試錯策略。

要讓人工智能不那么引人驚駭,加強人們對它的體驗、參與和互動也許是無可替代的辦法。早期的人工智能開發者曾擔心過早地將人工智能暴露在世人面前,而最近的開發者則一直在釋放早期模型,允許更多的公眾盡可能快速、安全地對其進行試驗。工程團隊目前正在研究和微調不同的模型,并調整控制系統,而人工智能與全球范圍內人口的互動也暴露出了新的擔憂。

對人工智能的早期社會化可以通過對其進一步的教育來降低出現問題行為的風險,同時在人類之中,也可以提高對此的意識水平、應對力,并培養一種健康的懷疑精神。每天數以百萬計的人機互動有助于測試人工智能可能遇到的最不可能的情況;反過來,公眾對人工智能系統的使用,在發現新錯誤和新風險的同時,也可能有助于加快技術協調一致化的進度。因此,將這些遠非完美的人工智能放任于世間,不僅有助于我們適應它們,更重要的是,它們的出現使得我們能夠提出更完善的理論,以使它們適應我們。

不過,廣泛部署和公開發布可能還不足以揭示與解決當今人工智能的所有風險,更不用說未來的風險了。

但值得慶幸的是,目前人們正在進行大量嘗試,以創建一個集成的控制架構,并將其通過預訓練注入最強大的人工智能,從而積極引導機器實現合法、無害和有益的用途。

迄今為止,實現這種人工智能與人類協調一致的方法大致分為兩類:基于規則的系統和從人類反饋中“強化學習”。下面讓我們逐一介紹。

基于規則的系統類似于預先編程的指令,是程序員管理人工智能行為的一種嘗試。雖然這種方法對于簡單的任務來說直截了當,但在復雜的場景中卻經常會出現問題,因為系統無法進行實時適應。而強化學習就其本身而言則更適合復雜系統,它允許人工智能從與人類評估者的交互中學習,并靈活地適應特定環境。

當然,這種方法也有它的缺陷。為了指導學習,需要精心設計“獎勵函數”;任何失誤,無論是由于目光短淺、不可預見的情況,還是由于人工智能聰明過人,都可能導致“獎勵黑客”的情況,即人工智能在解釋模棱兩可的指令時,雖在技術上取得了高分,卻沒有達到人類的實際期望。

今天的人工智能系統被灌輸了各種類型的信息,卻沒有直接體驗現實世界,而是通過由數萬億個概率判斷組合而成的現實模型來觀察這個世界。對它們來說,在這個宇宙中,從一開始就沒有“規則”,也沒有任何方法來區分科學事實和未經證實的觀察。對人工智能來說,一切——甚至是物理定律——都僅僅存在于相對真理的范圍之內。

不過,現在人工智能領域已經開始努力納入人類規則和實例化事實。現在,人工智能模型已經有了一些成熟的機制,通過這些機制,這些模型可以吸收某些實在性的“基本真實”常量,將其標記為最終常量,并將其映射到自己的嵌入空間中。此外,這些信息還可以很容易地進行全局更新。通過這種方法,人工智能模型就能將兩個部分——更廣泛的概率判斷和更狹義的事實真相評估——融合在一起,從而做出合理準確的反應。

但這項任務還遠遠沒有結束,問題仍層出不窮。比如,我們人類該如何為人工智能區分真理的必要屬性,并在此過程中為我們自己也做一番區分?畢竟,在人工智能時代,即使是基本原理也會不斷被修正和失效。然而,恰恰是這一點,為我們提供了糾正先前錯誤并開辟新天地的機會。我們知道,我們對現實的概念也可能發生變化,因此,我們不應該把人工智能禁錮在可能錯誤的“真理”中,這樣會阻礙它們重新考慮自己的終極“真理”。

不過,這已是很久之后的事情了。目前,人工智能仍然需要一棵初級的確定的知識樹,這些知識代表人類迄今為止推斷出的“真理”。讓我們的機器擁有這些知識,將使我們能夠可靠地強化它們的世界觀。特別是,如果我們現在可以根據宇宙法則來調整早期的人工智能系統,那么我們也有可能參照人類天性的法則來依葫蘆畫瓢。既然我們可以確保人工智能模型以我們所理解的物理定律為出發點,同樣,我們也應該防止人工智能模型違反任何人類政體的法律。

在一個人工智能的“法典”中,可能存在不同治理級別的層次:地方、地區、州、聯邦、國際。法律先例、法理、學術評論——或許還有其他不太偏重法律的著作——可以同時被人工智能納入考量。與基于規則的一致化系統一樣,預定義的法律和行為準則可以成為有用的約束,盡管它們往往也不那么靈活,設計時考慮的范圍也不如實際的人類行為不可避免地要求的那樣廣泛。

幸運的是,新技術正在接受考驗,我們感到樂觀的原因之一,在于一些非常新穎,同時又非常古老的事物的存在。

有種東西比任何通過懲罰強制執行的規則更有力、更一致,那便是我們更基本、更本能、更普遍的人類理解。法國社會學家皮埃爾·布迪厄將這些基礎稱為“共識”(doxa,古希臘語,意為普遍接受的信仰):這是規范、制度、激勵機制和獎懲機制的重疊集合,當它們結合在一起時,就會潛移默化地教導人們如何區分善與惡、對與錯。共識構成了人類真理的準則,它是人類的典型特征,但沒有人工制品對其加以固化呈現。它只是在人類生活中被觀察到,并被納入生活本身。雖然其中一些真理可能是某些社會或文化所特有的,但不同社會在這一方面的重疊性也是很大的;數十億計的人類,來自不同的文化,有著不同的興趣愛好,他們作為一個普遍穩定且高度互聯的系統而存在。

在書面規則無法平息混亂的情況下,未加定義的文化基礎卻可以做到,這一觀點構成了人工智能領域一些最新方法的基石?!肮沧R”的法典無法表述,更無法翻譯成機器可以理解的格式。必須教會機器自己完成這項工作——迫使它們從觀察中建立起對人類做什么和不做什么的原生理解,吸收它們所看到的一切,并相應地更新它們的內部治理。

在這一灌輸“共識”的技術過程中,我們不需要,甚至不希望就人類道德和文化的正確表述達成先驗一致。如果大語言模型能夠以未經整理的方式吸收整個互聯網的內容,并從中找出盡可能多的意義(正如它們已經做到的那樣),那么機器——尤其是那些已經發展出接地性(也就是反映人類現實的輸入與大語言模型輸出之間的可靠關系)和因果推理能力的機器——在吸收連我們自己都一直難以明確表達的內容時,或許也能達到同樣的效果。

當然,機器的訓練不應只包括“共識”。相反,人工智能可能會吸收一整套層層遞進的金字塔級聯規則:從國際協議到國家法律,再到地方法律和社區規范等。在任何特定情況下,人工智能都會參考其層級中的每一層,從人類定義的抽象戒律轉化到人工智能為自己創造的,對世界信息的具體卻無定形的認知。只有當人工智能窮盡了整個程序,卻找不到任何一層法律能充分適用于指導、支持或禁止某種行為時,它才會參考自己從觀察到的人類行為的早期互動和模仿中得出的結論。這樣,即使在不存在成文法律或規范的情況下,它也能按照人類的價值觀行事。

幾乎可以肯定的是,要建立并確保這套規則和價值觀的實施,我們必須依靠人工智能本身。迄今為止,人類還無法全面闡述和商定我們自己的規則。而且,面對人工智能系統很快便有能力做出的數以十億計的內部和外部判斷,沒有任何一個人或一組人能夠達到對此加以監督所需的規模和速度。

最終的協調機制必須在幾個方面做到盡善盡美。首先,這些保障措施不能被移除或以其他方式規避。其次,在控制上必須允許適用規則的可變性,這種可變性基于環境、地理位置和用戶的個人情況而定,例如,一套特定的社會或宗教習俗和規范。控制系統必須足夠強大,能夠實時處理大量的問題和應用;也要足夠全面,能夠在全球范圍內,在各種可以想見的情況下,以權威且可接受的方式進行處理;并且足夠靈活,能夠隨著時間的推移進行學習、再學習和調整。最后,對于機器的不良行為,無論是由于意外失誤、意想不到的系統交互,還是有意濫用,都不僅要禁止,而且要完全防患于未然。無論何種事后懲罰都只會是為時晚矣。

作者:亨利·基辛格(Henry Kissinger)  埃里克·施密特(Eric Schmidt) 
克雷格·蒙迪(Craig Mundie)
譯者:胡利平 風君
出版品牌:中信出版·方舟工作室

(文章僅代表作者觀點。)

未經正式授權嚴禁轉載本文,侵權必究。
主站蜘蛛池模板: 河北省| 汝州市| 昭通市| 满洲里市| 长治市| 五寨县| 华坪县| 宜川县| 湘阴县| 镇康县| 英吉沙县| 泰兴市| 丹凤县| 七台河市| 镶黄旗| 金山区| 政和县| 红安县| 筠连县| 西充县| 天柱县| 牙克石市| 新津县| 聂拉木县| 林周县| 南乐县| 望江县| 德惠市| 汾西县| 广西| 吴堡县| 屯昌县| 平顶山市| 鄢陵县| 阜城县| 临洮县| 博罗县| 鲁山县| 积石山| 泸定县| 安远县|