原创 【Pyhont筆記】__new__和__init__

一、先理解cls和self 此部分原文:https://blog.csdn.net/daijiguo/article/details/78499422 1、self表示一個具體的實例本身。如果用了staticmethod,那麼就可以無視這

原创 【Pyhont筆記】類的屬性隱藏

class person(object): tall = 180 hobbies = [] def __init__(self,name): self.name = name Bruce = p

原创 【Python筆記】單下劃線和雙下劃線

一、變量的定義 在Python中,有以下幾種方式來定義變量: xx:公有變量 _xx:前置單下劃線,私有化屬性或方法,一般來講,變量名_xx被看作是“私有 的”,在模塊(看導入方法)或類外不可以使用。當變量是私有的時候,用_xx 來表示變

原创 【Pyhont筆記】裝飾器總結

知識點:python中函數也是對象,可以傳遞和當做參數的。 1.最基本的裝飾器:參數爲函數,返回函數的函數,可作爲修飾器 def decorator(in_func):#函數做參數 def out_func(a,b,c):

原创 【Pyhont筆記】小知識點

1.文檔字符串對於類,函數/方法,以及模塊來說是唯一的,也就是說doc屬性是不能從父類中繼承來的。

原创 【Python練習cookbook】時間、日期操作

時間相關三模塊: time、calendar 、datetime 1. time 模塊 官方:https://docs.python.org/zh-cn/3/library/time.html#time.time 儘管此模塊始終可用,但並

原创 【Python筆記】深拷貝、淺拷貝、參考

深拷貝、淺拷貝具體看:https://www.runoob.com/w3cnote/python-understanding-dict-copy-shallow-or-deep.html b=a[:] 屬於淺拷貝 參考: 當創建一個對象,

原创 【Python筆記】正確理解Python中的 @staticmethod@classmethod方法

詳見:https://zhuanlan.zhihu.com/p/28010894  

原创 【python】詳解類class的繼承、__init__初始化、super方法

2、繼承中的_ _init_ _當在Python中出現繼承的情況時,一定要注意初始化函數_init_的行爲: 如果子類沒有定義自己的初始化函數,父類的初始化函數會被默認調用;但是如果要實例化子類的對象,則只能傳入父類的初始化函數對應的參數

原创 【Python練習cookbook】切片slice高級應用

1.將類似如下程序中的切片變得更可讀 ###位置## 0123456789012345678901234567890123456789012345678901234567890' record = '..................

原创 PLA算法

PLA全稱是Perceptron Linear Algorithm,即線性感知機算法。 PLA的求解算法要求問題是線性可分的,即可以找到一條線,或者超平面去分開是和不是的兩堆數據。如果不是線性可分,可以通過後來的Pocket改正算法,類似

原创 【Python練習cookbook】偏函數partial

官方入口:https://docs.python.org/zh-cn/3.7/library/functools.html#module-functools functools.partial(func, *args, **keyword

原创 【Python練習cookbook】heapq高級應用

1.從集合中取出最大或最小N個元素 import heapq nums = [1, 8, 2, 23, 7, -4, 18, 23, 42, 37, 2] print(heapq.nlargest(3, nums)) # 輸出 [42,

原创 【Python練習cookbook】實用模塊:collections.namedtuple

官方入口:https://docs.python.org/3.7/library/collections.html#collections.namedtuple collections.namedtuple(typename, field

原创 SparkContext did not initialize after waiting for 100000 ms

其他原因比如mater設置的問題這裏不贅述,網上查查即可。   報這個錯還有個很難發現的原因是當我們用: spark-submit --class 相關程序 提交程序後報錯。   如果“相關程序”做了很多其他事情處理之後才運行sparkC