隨縁居

伴隨著功能強大且日漸便宜的感知元件與物聯網的發展下,許多目標資料的採集可以達到即時、有效,再利用圖像識別、語音辨識,轉換為對系統有意義的資訊;同時人工智慧(Artificial Intelligence, AI)已能深度學習,應用於統計和分析,在不斷對神經元網路進行深度學習訓練下,促使AI診斷/預測能力日新月異。新世代的「人工智慧」就是基於「深度神經網路(Deep Neural Networks,簡稱DNN)」演算法的機器學習,一種模仿生物神經系統的數學模型,讓研發的程式具有自我學習的功能。

它對任何有關大數據領域的改造是顛覆性的,人工智慧的應用給了大數據所需的靈魂,而2017年正是人工智慧發展的起飛點。去年與今年谷歌旗下DeepMind開發的「AlphaGo」人工智慧系統分別打敗了南韓與中國的圍棋王,向世界展示了人工智慧系統的強大威力,也向世人宣告了人工智慧時代的來臨。

 

事實上,人工智慧也悄然登陸在政治領域上,許多競選上開始使用人工智慧於大數據上,例如庫西納(Jared Kushner ,川普女婿、白宮高級顧問)7月24日在國會反駁對通俄門的指控時,就透露了川普如何贏得美國總統大選的秘密。

川普贏得大選的秘密武器
在2016年美國大選時,川普競選團隊僱用劍橋分析公司(Cambridge Analytica),在它擁有超過2.2億美國選民中,收集了5,000個數據點,並使用超過100個數據變量,最後為川普競選團隊構建了大約20類投票人的地理位置密度圖。對特定地區和特定的選民進行目標分析,之後有針對性地動作。競選活動中的所有活動幾乎都由數據分析後來決定:廣告訴求、特定選民、籌款、集會的地點,甚至是演講的主題都是經過數據分析後的慎重決定。

所以川普在競選的最後4個月決定籌款後,共籌集了超過2.5億美元的資金,而這些錢主要來自眾多大多為10塊、20塊的小額捐助者,與希拉蕊的大金主有著天壤之別。這些幾百萬到上千萬的選民捐了錢後,是有效的人財兩得,他們不但會投川普的票,許多人還成了川普競選拉票的志願者 (這段情節與柯文哲競選台北市長非常相似)。

當最後密西根州和賓西法尼亞州成為大選的決戰點時,川普團隊依據最新數據庫反映出這兩州選民最有可能轉向,川普便推出了訂製電視廣告,並在這些地方舉行最後一擊的選前集會,有效地讓成千上萬的志願者敲門和打電話給選民。這些動作在競選的最後幾天內密集發生,正確而有效,不但扭轉許多關鍵州的選舉結果,也改變了所有主流媒體的預測。

 

習慣了做主流媒體廣告的人士尚不理解大數據的能力,至今還對大選逆轉感到不解。谷歌前CEO施密特分析後表示「還記得所有關於他們沒有錢、沒有人、沒有組織的報導嗎?」川普團隊以傳統媒體人還沒有理解的方式,成功地使用大數據,彌補了沒有錢、沒有人、沒有組織的總統競選活動,並最後獲勝。

未來人工智慧應用,將進入每一個產業

事實上,能使用大數據的人,就像在黑暗無光的夜裡,裝備著紅外線望遠鏡,可以輕易地鎖定遠距離大小目標。今天結合互聯網而成的即時大數據系統,隨著高運算速度的微晶片普及,任何系統只要創建一個跨平台、標準統一的開放分享型數據的通訊協定與界面,再加上運用人工智慧的深度學習技術,將加速各項產業的發展,最終必能廣泛運用到選舉、保險、醫療、製造、零售、家庭、農業、金融等,而全面改造我們未來的生活。又如亞馬遜(Amazon)在採用倉儲機器人之後,原來需要1,500名員工的倉庫,大幅減少為不到10名的員工進行管理。

過去科技業曾認為人工智慧(AI)在商用上並不可行,因為當時人工智慧在資源的限制下,處理資料的速度遠低於資料本身變化的速度,所以只算是學堂裡的理論,或僅適用在機器學習(Machine Learning)、大數據資料挖掘(Data Mining)等特殊領域。但現在大環境的改變下,GPU、Cloud computing 的普及,加上深度學習(Deep Learning )的革新,讓許多原本做不到的工作,現在都輕易做得到了。

今日AI有了取代傳統的演算法,它不需等待人類給予明確的指令,便能自行從資料當中推演出演算法。只要給幾百張某個物體的圖像,人工智慧就能透過自我學習找出最有效率的方法,偵測出該物體。這其實是一種新的運算方式,不再需要人工寫程式碼,而是讓AI自己推演出程式碼。AI受惠於相關領域的快速發展,近年來已日趨成熟,特別在產業機器人、自動駕駛和語音助理平台,其他的應用範圍亦日漸廣泛。

像IBM Watson腫瘤解決方案(Watson for Oncology)在癌症治療運用人工智慧系統,已能使建議結果與醫生判斷的一致性高達96%。並將臨床篩查時間從近2個小時縮短到24分鐘,在2017年底前該技術將可用於支持至少12種癌症。


工業4.0也是建構在大數據與人工智慧上,以往統計學早已提供各種的分析原理與工具,而大數據是在現場架設各種數據的「連結器」,建立各項KPI系統,與預測未來的發展曲線,當取得數據速度愈快,就愈能修正而逼近到實際狀況,則決策速度就愈快,成效也愈提高。能匯集各種不同來源的資料,人工智慧的系統就能夠分析、達到更精準的判斷。運用大數據就像剝洋蔥,一層一層地剝開,直到發現問題為止,最後將KPI做視覺化工具,和預測模型,系統將視變化由處理進化為預防,將效率由後段逐一強化到前段。

除了在各自目標商品做開發外,谷歌、微軟以及臉書等大廠企圖主導人工智慧的「規格」與掌握「開放式發展平台」的方向,谷歌首先在2015年推出的TensorFlow開放原始碼給全球的開發者,而去年微軟推出Cognitive Toolkit(CNTK)、臉書也釋出Torchnet和Caffe2來加入戰局。中國大陸的百度、阿里巴巴、騰訊等科技巨擘,也紛紛想在這剛開始蓬勃發展的領域分一杯羹,為建構未來的新王國投入了巨額資源。所有硬體都有大量的 AI軟體應用需求,而台灣業界則開始偏重在其中尋找關鍵軟體元件的商機。

如同微軟共同創辦人比爾蓋茲7月在推特向2017年大學畢業生分享心得說,如果他今天才要展開生涯,會選擇人工智慧、能源或生物科技,我們也做好準備擁抱人工智慧的新世代吧!

)