機器“學人”變壞了,如何對你“殺熟”、“價格歧視”?

機器“學人”變壞

如何對你“殺熟”、“價格歧視”?

不是壞人變成機器,而是機器“學壞了”。看大資料如何預判你的預判?

機器“學人”變壞了,如何對你“殺熟”、“價格歧視”?

性格隨和的員工薪酬比“帶刺兒”的員工低18%。這是美國康奈爾大學勞資關係學院的一項調查發現。

不僅如此,在不太遠的未來,HR中的薪酬專員將由大資料擔任,它不但可以評估出每位員工的業績,預測未來的發展空間,更重要的是,它還會預測你的行為,判斷你可以接受的最低工資要求,以實現個性化的動態定價。

可能有的人覺得,網際網路時代,一切都拿資料說話是不是太無情了。確實,大資料時代資料殺熟、價格歧視早就可以透過機器學習,每分鐘的定價都在變化,以最大程度的獲取利潤。

就比如1999年,可口可樂計劃推出一款能夠根據天氣情況改變價格的自動售貨機,經媒體披露後,被罵得體無完膚,可到了2013年,亞馬遜就透過動態定價,提高了25%的利潤率,2014年元旦,因為定價系統失靈了26分鐘,業務量立刻下跌了75%。

從某種程度上來說,大資料已經在擇優選擇利潤、效率最大化了。

至於價格歧視,在我們身邊就很常見,比如同樣在淘寶上輸入“衣服”,系統給男性展示的是男款服裝,給女性展示的是女款服裝,當然價格也可能會有所不同,系統給你展示的都是幾十塊的地攤貨,給別人展示的都是幾千塊的名牌,你可能就會很不開心。但是,大資料並不歧視你,大資料只是預測你的行為。

可以立法禁止“大資料殺熟”,但更為隱蔽的價格又如何禁止呢?前幾年就出過的一件“大資料歧視”事件,美聯航一班飛機超售票,在沒有乘客自願改簽的情況下,美聯航由電腦隨機選出四名乘客強制改簽,並將一名乘客強行拖下飛機。

很多人認為其中有種族歧視,因為這四個人中有三個亞裔,但機組人員很委屈,這是電腦“隨機”選出來的,在場人員並沒有干預結果。

但事實真是這樣嗎?“隨機”行為只有人類才有,只要是電腦產生的結果,一定是按某種規律取引數計算出來的。只不過,有些引數是人為設定的,有些引數是機器自主學習的,後者就是人工智慧。“隨機”出三個亞裔,唯一的解釋就是,電腦從歷史改簽資料學會了人類的某些行為模式。

如果要解讀資料,那解釋就是“亞裔服從性好,不會惹麻煩”,從某種程度來說也是一種“殺熟”。

所以,價格歧視難以禁止,未來還會有更多依賴機器學習的決策場景,我們或許該思考的是,“殺熟”的並不是機器人,而是藏在機器人背後的“生意人”。