请实现一个函数,输入一个整数,输出该数二进制表示中 1 的个数。例如,把 9 表示成二进制是 1001,有 2 位是 1。因此,如果输入 9,则该函数输出 2。
示例 1:
输入:00000000000000000000000000001011
输出:3
解释:输入的二进制串 00000000000000000000000000001011 中,共有三位为 '1'。
示例 2:
输入:00000000000000000000000010000000
输出:1
解释:输入的二进制串 00000000000000000000000010000000 中,共有一位为 '1'。
来源:力扣(LeetCode)
链接:https://leetcode-cn.com/problems/er-jin-zhi-zhong-1de-ge-shu-lcof
著作权归领扣网络所有。商业转载请联系官方授权,非商业转载请注明出处。
class Solution:
def NumberOf1(self, n):
count = 0
while n & 0xffffffff != 0:
count += 1
n = n & (n - 1)
return count
def NumberOf2(self, n):
count = 0
if n<0: # 将负数转为正数
n = n& 0x7fffffff
count +=1
# 每一次都与 1 做 &运算, 判断 N 最右侧是否为 1, 之后不断右移
# while n!= 0:
# if n&1==1:
# count += 1
# n = n>>1
while n & 0xffffffff != 0:
count+=1
n = n&(n-1) # 每次使最右侧的 1 变为 0
return count
if __name__ =="__main__":
s = Solution()
num = 102
r = s.NumberOf2(num)
print(r)
r = s.NumberOf1(num)
print(r)