在不穩(wěn)定的2020年之后,對(duì)新的一年有何看法?
關(guān)于2020年已經(jīng)說了太多話了。這么多恥辱,不幸,悲傷……是的,我們都知道!我們?cè)谝黄饐?
但是,圍繞我們的所有這些恥辱和不幸并沒有阻止巨大的研究和進(jìn)步。偉大的成就并沒有道歉,"抱歉,那我要等2021年……"。太好了,世界在不斷發(fā)展。
數(shù)據(jù)科學(xué)正變得如此成熟,以至于我回顧了以前的回顧性文章(2019、2020),我覺得我們需要比以往任何時(shí)候都更加開始討論復(fù)雜而嚴(yán)肅的話題。我是那個(gè)變老嗎?
當(dāng)然,像Tensorflow甚至sklearn這樣的核心技術(shù)都在發(fā)展,但是這些是現(xiàn)在的主要問題嗎?我相信不是。
在這篇文章中,我將集中討論兩個(gè)主要主題。在不破壞太多的情況下,它們是:
事實(shí)與共同點(diǎn)我們都可以做數(shù)據(jù)科學(xué)嗎?
有興趣嗎我們走吧。
1. 事實(shí)和共同點(diǎn)
不能說技術(shù)進(jìn)步不好。它們是我們可以用于我們想像的任何工具的工具,無論好壞??梢哉业綇V泛的例子,其中技術(shù)始于軍事應(yīng)用,并成功地應(yīng)用于民用技術(shù)(我喜歡這個(gè)清單)。但是,有很多我們首先不希望在軍事應(yīng)用中使用的數(shù)據(jù)科學(xué)工具……
我為什么要談?wù)撍?讓我呆一會(huì)兒,繼續(xù)前進(jìn)……今年,我們(至少)發(fā)生了兩個(gè)非常特殊的事件-美國(guó)大選和COVID-19。我開始注意到側(cè)面(觀點(diǎn)/立場(chǎng)/陳述)變得比以往更加兩極化。我個(gè)人和朋友們進(jìn)行了一些艱難的討論。我開始感到我們?nèi)鄙僖恍〇|西–需要一個(gè)共同點(diǎn)?;旧?,我們之間可以達(dá)成共識(shí)的是事實(shí)?看起來很簡(jiǎn)單,但如今卻如此復(fù)雜。
人們開始依靠自己的新聞?lì)l道(某些情況下,社交媒體供稿),每個(gè)新聞?lì)l道都有自己的觀點(diǎn)和針對(duì)性的建議,而沒有過濾掉對(duì)廣告內(nèi)容的正確或錯(cuò)誤的判斷。我們可以進(jìn)行富有成效(健康)的討論的共同基礎(chǔ)開始消失。對(duì)其他來源不信任。
這與數(shù)據(jù)科學(xué)有何關(guān)系?它涉及最被低估的領(lǐng)域之一,人們通常要么做出粗略的假設(shè),要么獨(dú)自忽略。稱為數(shù)據(jù)來源(Wiki定義)。
我希望在2021年,有關(guān)數(shù)據(jù)來源的討論會(huì)增加。
數(shù)據(jù)從哪里來?我們可以相信嗎?它是否包含代表性數(shù)據(jù)?在部署模型之前,我們應(yīng)該對(duì)數(shù)據(jù)有什么了解嗎?我們?cè)趺粗缹硭鼘⒗^續(xù)成為可靠的來源?
我真誠(chéng)的認(rèn)為,我們還沒有認(rèn)真對(duì)待數(shù)據(jù)來源評(píng)估。有很多不好的例子,使用未經(jīng)檢查的數(shù)據(jù)會(huì)導(dǎo)致更多的錯(cuò)誤信息或歧視。
現(xiàn)在,回到技術(shù)進(jìn)步,并與數(shù)據(jù)來源聯(lián)系起來,今年,我們看到了通用對(duì)抗網(wǎng)絡(luò)(GAN)的一些令人印象深刻的應(yīng)用。例如,伊麗莎白女王的Deepfake通過第4頻道到達(dá)大眾(youtube視頻)。大家的反應(yīng)不一,但我可以看到,該視頻的目的是將信任討論擺到桌面上。我們可以相信自己的眼睛嗎?從現(xiàn)在起,我們可能需要變得更加懷疑。
對(duì)Deepfake的無節(jié)制使用會(huì)破壞公眾對(duì)報(bào)紙和電視的信任。數(shù)據(jù)來源必須明確,我們需要找到一種方法來確定什么可以被信任。
2. 我們都可以做數(shù)據(jù)科學(xué)嗎?
2020年為我們帶來了數(shù)據(jù)科學(xué)應(yīng)用程序的許多發(fā)展,它使用了最近幾年(某種)可用的技術(shù),但現(xiàn)在使用了更多的計(jì)算能力。兩個(gè)例子:
OpenAI的生成式預(yù)訓(xùn)練變壓器3(GPT-3)。它使用預(yù)先訓(xùn)練的算法生成文本。具體來說,他們已經(jīng)獲取了通過爬網(wǎng)收集的文本信息以及OpenAI選擇的其他文本,包括Wikipedia的文本。您可以在此處檢查一些出色的應(yīng)用程序(例如,圖靈測(cè)試)。Deepmind的AlphaFold。該團(tuán)隊(duì)解決了蛋白質(zhì)折疊的巨大挑戰(zhàn),這一挑戰(zhàn)使科學(xué)界困惑了50年。
幾年前,我們可以看到數(shù)據(jù)科學(xué)的發(fā)展來自單身人士或小型創(chuàng)業(yè)公司。如今,由于我們處于一個(gè)階段,我們需要大量的計(jì)算資源來訓(xùn)練某些模型,因此這變得更加困難。例如,Deepmind提到Alphafold,
…使用大約16個(gè)TPUv3(即128個(gè)TPUv3內(nèi)核或大約相當(dāng)于100-200個(gè)GPU)運(yùn)行了幾周…
關(guān)于OpenAI的GPT-3,
使用Tesla V100云實(shí)例訓(xùn)練GPT-3的成本將超過460萬美元。
這是否意味著Data Science / AI的民主程度降低了?群眾仍然可以使用嗎?
一種解決方案是對(duì)需要較少數(shù)據(jù)才能取得良好結(jié)果的模型的開發(fā)進(jìn)行更深入的研究。我們一直專注于模型的準(zhǔn)確性/ ROC / RMSE / etc。在最近幾年中,并沒有太多地影響它們的效率。資源不是無限的,特別是對(duì)于業(yè)余數(shù)據(jù)科學(xué)家來說,他們也希望在不依賴大型基礎(chǔ)架構(gòu)的情況下對(duì)應(yīng)用程序有所了解(=高成本,=第三方)。
另一個(gè)解決方案可以是所有人都可以使用的開源預(yù)訓(xùn)練模型。但是,如果所有者不完全清楚如何創(chuàng)建模型以及使用哪些數(shù)據(jù),則可能屬于上述問題(數(shù)據(jù)來源)。盡管如此,只要公眾具有適當(dāng)?shù)耐该鞫群烷_放性,他們可以參與創(chuàng)建這些經(jīng)過預(yù)先訓(xùn)練的模型,我們也許可以達(dá)成共識(shí)。
掃一掃在手機(jī)上閱讀本文章