原创 英文閱讀第二期 20190223

這一週讀了六篇英文文章。 Red, Yellow, Green: Bringing Personal Check-Ins to the Office 開會之前成員表述下自己所處的狀態:紅(敏感、情緒化)、黃(有點累、緊張)、綠(冷靜、頭腦

原创 Mac硬盤空間不足

今天,Mac電腦提醒我硬盤空間不足,我的Mac硬盤空間只有128G,現在只剩下7G。經過兩小時的清理,終於又空出來20G. 下面介紹下我的清理過程,當然再多的技巧也比不上錢有效,後面一定要買個512G的。 刪除不用的APP 無論是刪APP

原创 英文閱讀第一期

這一週讀了五篇英文文章,以下是我的筆記。 點擊標題即可進入文章原鏈。 The Send To All Mistake 在郵件中使用 Dear All 這樣的開頭是錯誤的。你需要讓收件人明確自己是否需要回復郵件,而使用Dear All這樣的

原创 Spark 如何 post 數據

有時候,爲了方便運營,一個欄位需要配置多種源數據。 不同數據源的更新方式或頻率會有所不同,而且是由不同的人來維護的。 爲了前端接口的簡潔性,需要將多種數據彙總到一張表中。 這種時候,可以選擇將數據post到數據接收方,這樣就能很方便地彙總

原创 如何正確的發郵件

企業微信和釘釘有很多優勢,比如方便同事間的交流,集成OA、監控、在線文檔等功能,確實大大減少了企業管理、同事溝通的成本。 但由於太方便了,導致消息過載,許多重要的消息會被淹沒,所以郵件依舊是人們發佈重要信息的主要途徑。 郵件的好處有以下幾

原创 word2vec算法一次失敗的應用

在電商推薦系統中,有一種場景是根據一個商品(主商品)推薦相適度高的商品(推薦商品)。常用的方法有兩種,一是利用協同過濾模型,二是利用商品的屬性相似。 無論哪種方法,都是將商品轉化爲向量,將商品的相似度轉化爲向量的距離。屬性相似直接採用了o

原创 滑雪

最近部門團建,趁着經費還剩下不少,於是奢侈一把,去了滑雪場。 我是第一次去滑雪,這次滑雪經歷可以看做是一次完整學習過程的快速演變。 通常的學習週期都會比較長,但通過兩個多小時的滑雪,我就經歷一次完整的學習週期。 這並不是說我通過兩小時就能

原创 bug修復 | org.apache.commons.math3.exception.NoBracketingException

顯示的錯誤:org.apache.commons.math3.exception.NoBracketingException: function values at endpoints do not have different signs

原创 好了傷疤忘了疼

有句話叫好了傷疤忘了疼,即人經常會忘記自己所犯的錯誤。 這種機制存在着很大的弊端。若我們無法從過去的失敗中吸取教訓,那下次碰到類似的情況,我們很可能還會再犯一次錯誤。 這樣的例子比比皆是。比如在股票市場一次次的高買低賣,又比如每年年初制定

原创 文章彙總 | 2018

12月 RIA便籤學習法 10月 財富最好的定義 Spark分佈式原理及碰到的三個坑 在不斷解決問題(矛盾)的過程進步 9月 《韭菜的自我修養》- 股票交易是零和遊戲嗎? 算法實現的後勤保障 參加4D領導力培訓的收穫 8月 reduceB

原创 你爲哪些軟件付費了?

近些年來,電腦上的付費軟件開始多了起來,每年在軟件使用上的開銷有1000人民幣。 以下是我所使用的付費軟件: 爲知筆記,60元/年 全平臺雲筆記軟件。用來記錄寫過的文章、讀書筆記,以及收藏公衆號文章。 幕布,199/三年 思維導文,用來

原创 RIA便籤學習法

任何一種方法或結論都有適用邊界,比如水的沸點是100攝式度的邊界條件是在標準大力壓下。 人們在傳播時經常會忽略邊界條件,使文本表達的意思與原作不同。這就導致二次傳播時,由於缺少邊界條件,常常會引發誤會。 最常見的例子就是快速閱讀和拆書,這

原创 財富最好的定義

攝於玉泉 維基百科中的財富詞條是這麼寫的: 經濟學上,財富是指物品按價值計算的富裕程度,或對這些物品的控制和處理的狀況。 也許這很專業,但聽完之後對我們沒有任何作用。而一個好的定義必須對行動有指導意義,比如《富爸爸窮爸爸》一

原创 Spark分佈式原理及碰到的三個坑

攝於玉泉 Spark 是繼 MP 之後的分佈式計算框架,採用分佈式架構就好比投入了更多的人力,雖然每個人做事的效率一樣,但人多了完成特定目標的時間也就短了。 一個項目要完成,除了每個人單獨完成自己的事外還需要有人來協調,比如最初

原创 Spark入門-常用函數彙總

Photo by Simon Migaj from Pexels Spark 是一個分佈式的計算系統,而且函數式編程風格使在Spark上開發任務變得更有效率。 參加工作後使用Spark開發維護了四個算法,雖然算法不同但Spark