<track id="jlap1"></track>
<object id="jlap1"></object>
  • <wbr id="jlap1"></wbr>
    <u id="jlap1"></u>
    <code id="jlap1"><span id="jlap1"></span></code>
    1. <wbr id="jlap1"></wbr>
      <wbr id="jlap1"></wbr>
      <code id="jlap1"><span id="jlap1"></span></code>
      當前位置:主頁  >> 試題中心  >> 其他真題   
      其他真題

      2019上半年事業單位聯考《綜合應用能力》C類真題及答案

      http://www.ssrtes.com       2019-05-20 16:29      來源:公考通
      【字體: 】              

        2019上半年事業單位聯考C類《綜合應用能力》真題在此發布。本套2019上半年事業單位聯考C類《綜合應用能力》真題來自考生回憶,由公考通整理。


        >>> 點擊下載PDF打印版(含參考答案,查看答案解析請下載PDF版)


        2019年上半年全國事業單位聯考C類《綜合應用能力》真題


        材料一


        1997年,國際象棋大師加里·卡斯帕羅夫敗給了電腦“深藍”;2016年,谷歌人工智能AlphaGo又戰勝了韓國棋手李世石,這標志著人工智能終于征服了它在棋類比賽中最后的弱項——圍棋,谷歌公司的DeepMind團隊比預期提前了整整10年達到了既定目標。


        對計算機來說,圍棋并不是因為其規則比國際象棋復雜而難以征服——與此完全相反,圍棋規則更簡單,它其實只有一種棋子,對弈的雙方輪流把黑色和白色的棋子放到一個19×19的正方形棋盤中,落下的棋子就不能再移動了,只會在被對方棋子包圍時被提走。到了棋局結束時,占據棋盤面積較多的一方為勝者。


        圍棋的規則如此簡單,但對于計算機來說卻又異常復雜,原因在于圍棋的步數非常多,而且每一步的可能下法也非常多。以國際象棋作對比,國際象棋每一步平均約有35種不同的可能走法,一般情況下,多數棋局會在80步之內結束。圍棋棋盤共有361個落子點,雙方交替落子,整個棋局的總排列組合數共有約10171種可能性,這遠遠超過了宇宙中的原子總數——1080!


        對于結構簡單的棋類游戲,計算機程序開發人員可以使用所謂的“暴力”方法,再輔以一些技巧,來尋找對弈策略,也就是對余下可能出現的所有盤面都進行嘗試并給予評價,從而找出最優的走法。這種對整棵博弈樹進行窮舉搜索的策略對計算能力要求很高,對圍棋或者象棋程序來說是非常困難的,尤其是圍棋,從技術上來講目前不可能做到。


        “蒙特卡羅樹搜索”是一種基于蒙特卡羅算法的啟發式搜索策略,能夠根據對搜索空間的隨機抽樣來擴大搜索樹,從而分析圍棋這類游戲中每一步棋應該怎么走才能夠創造最好機會。舉例來說,假如筐里有100個蘋果,每次閉著眼拿出1個,最終要挑出最大的1個,于是先隨機拿1個,再隨機拿1個跟它比,留下大的,再隨機拿1個……每拿一次,留下的蘋果都至少不比上次的小,拿的次數越多,挑出的蘋果就越大。但除非拿100次,否則無法肯定挑出了最大的。這個挑蘋果的方法,就屬于蒙特卡羅算法。雖然“蒙特卡羅樹搜索”在此前一些弈棋程序中也有采用,在相對較小的棋盤中也能很好地發揮作用,但在正規的全尺寸棋盤上,這種方法仍然存在相當大的缺陷,因為涉及的搜索樹還是太大了。


        AlphaGo人工智能程序中最新穎的技術當屬它獲取知識的方式——深度學習。AlphaGo 借助兩個深度卷積神經網絡(價值網絡和策略網絡)自主地進行新知識的學習。深度卷積神經網絡使用很多層的神經元,將其堆疊在一起,用于生成圖片逐漸抽象的、局部的表征。對圖像分析得越細,利用的神經網絡層就越多。AlphaGo也采取了類似的架構,將圍棋模盤上的盤面視為19×19的圖片輸入,然后通過卷積層來表征盤面。這樣,兩個深度卷積神經網絡中的價值網絡用于評估盤面,策略網絡則用于采樣動作。


        在深度學習的第一階段——策略網絡的有監督學習(即從中   I   中學習)階段,擁有13層神經網絡的AlphaGo借助圍棋數據庫KGS中存儲的3000萬份對弈棋譜進行初步學習。這3000萬份棋譜樣本可以用a、b進行統計。a是一個二維棋局,把a輸入到一個卷積神經網絡進行分類,分類的目標就是落子向量A。通過不斷的訓練,盡可能讓計算機得到的向量A接近人類高手的落子結果b,這樣就形成了一個模擬人類下圍棋的神經網絡,然后得出一個下棋函數F_go()。當盤面走到任何一種情形的時候,AlphaGo都可以通過調用函數F_go()計算的結果來得到最佳的落子結果b可能的概率分布,并依據這個概率來挑選下一步的動作。在第二階段——策略網絡的強化學習(即從   Ⅱ   中學習)階段,AlphaGo開始結合蒙特卡羅樹搜索,不再機械地調用函數庫,而類似于一種人類進化的過程:AlphaGo會和自己的老版本對弈。即,先使用F_go(1)和F_go(1)對弈,得到了一定量的新棋譜,將這些新棋譜加入到訓練集當中,訓練出新的F_go(2),再使用F_go(2)和F_go(1)對弈,以此類推,這樣就可以得到勝率更高的F_go(n)。這樣,AlphaGo就可以不斷改善它在第一階段學到的知識。在第三階段——價值網絡的強化學習階段,AlphaGo可以根據之前獲得的學習經驗得出估值函數v(s),用于預測策略網絡自我對抗時棋盤盤面s的結果。最后,則是將F_ go()、v(s)以及蒙特卡羅樹搜索三者相互配合,使用F_ go()作為初始分開局,每局選擇分數最高的方案落子,同時調用v(s)在比賽中做出正確的判斷。


        這就是AlphaGo給圍棋帶來的新搜索算法。它創新性地將蒙特卡羅模擬和價值網絡、策略網絡結合起來訓練深度神經網絡。這樣價值網絡和策略網絡相當于AlphaGo 的兩個大腦,策略網絡負責在當前局面下判斷“最好的”下一步,可以理解為落子選擇器;價值網絡負責評估整體盤面的優劣,淘汰掉不值得深入計算的走法,協助前者提高運算效率,可以理解為棋局評估器,通過兩個“大腦”各自選擇的平均值,AlphaGo最終決定怎樣落子勝算最大。通過這種搜索算法,AlphaGo和其他圍棋程序比賽的勝率達到了99.8%。


        AlphaGo的飛快成長是任何一個圍棋世界冠軍都無法企及的。隨著計算機性能的不斷增強,遍歷蒙特卡羅搜索樹將進一步提高命中概率。大量的計算機專家,配合大量的世界圍棋高手,在算法上不斷革新,再配合不斷成長的超級計算能力,不斷地從失敗走向成功,最終打造出圍棋人工智能。在AlphaGo擊敗李世石后,歐洲圍棋冠軍樊麾說了這么一句話:“這是一個團隊的集體智慧用科技的方式戰勝了人類數千年的經驗積累?!比撕蜋C器其實沒有站在對立面上,“是人類戰勝了人類”。


        材料二


        上世紀80年代,M市高溫首日經常出現在6月中下旬至7月,到21世紀,往往還沒到6月中句,M市氣溫就會躥至35℃以上,僅有兩年的高溫日到7月才出現,1981年以來,M市6-8月高溫日出現越來越頻繁,可見,M市首個高溫日的出現時間越來越早,21世紀后每年首個高溫日出現時間肯定早于上世紀80年代。


        在M市,一年中最熱的時候莫過于7月,1997年以來,高溫日數逐漸增多。截至2018年7月中旬,2018年M市高于35℃的日子已有6個,比往年7月的平均數還多2個。可以確定,這一年M市7月的高溫日總數將是1997年以來最多的一年。另外據統計,M市7月的高溫日整體多于6月和8月,照此趨勢,2018年8月的高溫日可能不會超過7月。


        近30年來,M市7月的夜溫越來越高,1999年以來7月的夜間最低氣溫普遍超過23℃,所以2018年7月下旬M市夜間的最低氣溫不會低于23℃。


        同樣近30年來,M市6-8月出現持續3天以上高溫的總次數為27次,20次都是在2000年以后出現的,2018年6月和7月,M市已經分別出現了一次持續3天以上的高溫。既然2018年M市出現3天以上持續高溫的次數已經超過了近30年來的平均值,那么8月份M市不會出現3天以上的持續高溫天氣。


        30年來,M市“城市熱島效應”愈發顯著,城區與郊區的平均氣溫差值越來越大。2018年7月M市各區平均氣溫偏高,均超過26.7℃。其中市中心2個城區氣溫最高,其次是環市中心的其他4個城區,2個郊區的氣溫最低。(注:高溫日為日最高氣溫≥35℃)


        材料三


        材料(一)細菌學家弗萊明的實驗室里擺放著許多有毒細菌培養皿。多年來,


        他試驗了各種藥劑,力圖找到一種能殺滅這些細菌的理想藥品,但一直未能成功。1928年的一個早晨,他在檢查細菌的變化時,突然發現一個葡萄狀球菌的培養皿里長出了一團青色霉菌,并且其周圍原來生長著的葡萄狀球菌消失了,他進一步研究發現,這種青色霉菌對其他多種有毒細菌同樣具有殺滅作用,他把這種青色霉菌分泌的殺菌物質稱為青霉素。


        材料(二)1870年,英國科學家克魯克斯在做陰極射線管放電實驗時,意外發現管子附近的照相底片有模糊陰影,他判斷是照相的干板有毛??;1890年美國科學家古德斯柏德在做相同的實驗時也發現同樣的現象,他歸因于沖洗藥水和沖洗技術有問題;到了1892年,德國有些物理學家也觀察到這一現象,但當時他們的注意力都集中在研究陰極射線的性質上,對此并沒有警覺。直到1895年,這一奇特現象才被德國物理學家倫琴敏銳地抓住,他反復研究實驗,最終發現了X射線,他也因此獲得諾貝爾物理學獎。


        材料三:丹麥天文學家第谷三十年如一日觀測天象,記錄了750顆星相對位置的變化,糾正了以往星表中的錯誤。但第谷不善于對感性材料進行科學抽象和概括,終究未能揭示行星運動規律。臨終前,他把自已所有的材料交給了學生開普勒,要求他繼續研究行星運動的理論。起初,開普勒以第谷宇宙體系為基本框架來探討這個問題,但毫無所獲,于是轉而以哥白尼日心體系為基本框架展開研究。他精于理論思維和數學推導,根據老師留下的大量一手資料,最終發現了天體運動的三大定律,被譽為“天空立法者”。


        【問題】


        問題一


        科技文獻閱讀題:請認真閱讀文章,按照每道題的要求作答。(50分)


        根據材料一,回答下列問題:


        1.判斷題:請用2B鉛筆在答題卡相應的題號后填涂作答,正確的涂“A”,錯誤的涂“B”。


        (1)國際象棋的走法不超過35*80種。


        (2)結構簡單的棋類游戲可以通過對博弈樹的“暴力”窮舉搜索找出最優走法。


        (3)傳統的計算機圍棋程序能夠完全尺寸棋盤的蒙特卡羅樹模擬并計算最大勝率。


       ?。?)函數F_go(n)比F_go(n-1)的勝率更高。


        2.填空題:請根據文意,分別填補Ⅰ、Ⅱ兩處缺項,沒空不超過6個字。


       ?、瘢?nbsp;  )  Ⅱ(   )


        3.多項選擇題:備選項中有兩個或兩個以上符合題意,請用2B鉛筆在答題卡相應的題號后填涂正確選項的序號,錯選、少選均不得分。


       ?。?)這篇文章開頭認為圍棋是人工智能在棋類游戲中最弱項的原因是:


        A.圍棋每一步可能的下法太多,無法使用窮舉搜索


        B.圍棋的規則對于計算機來說太復雜,無法理解


        C.單一的計算機神經網絡難以應對圍棋的搜索計算


        D.圍棋盤面局勢的評估缺乏現代就三家技術的支撐


       ?。?)下列關于AlphaGo“兩個大腦”的說法正確的是


        A.價值網絡負責評估盤面優劣


        B.策略網絡負責判斷走法優劣


        C.策略網絡能夠協助價值網絡提高運算效率


        D.價值網絡和策略網絡共同確定最終的落子位置


        4.比較分析AlphaGo新算法和蒙特卡羅樹搜索的不同之處。


        要求:概括準確,層次清晰,文字簡潔,不超過250字。


        5.請為本文寫一篇內容摘要


        要求:全面、準確,條理清晰,不超過350字。


        問題二


        論證評價題:閱讀給定材料二,指出其中存在的4處論證錯誤并分別說明理由。請在答題卡上按序號分條作答,每一條先將論證錯誤寫在“A”處(不超過75字),再將相應理由寫在“B”處(不超過50字)。(40分)


        問題三


        材料作文題:閱讀下列材料,按要求作答。(60分)


        參考給定材料三,以“科學發現并不偶然”為話題,自選角度,自擬題目,寫一篇議論文。


        要求:觀點鮮明、論證充分,條理清晰,語言流暢,字數在800~1000字。



      性刺激的欧美三级中文字幕_日韩无码视频免费观看_亚洲高清无码免费在线_国产精品日韩专区在线播放
      <track id="jlap1"></track>
      <object id="jlap1"></object>
    1. <wbr id="jlap1"></wbr>
      <u id="jlap1"></u>
      <code id="jlap1"><span id="jlap1"></span></code>
      1. <wbr id="jlap1"></wbr>
        <wbr id="jlap1"></wbr>
        <code id="jlap1"><span id="jlap1"></span></code>