尝试使用 list comprehension 和 conditional expression。
>>> a=[1,2,3,1,3,2,1,1]
>>> [4 if x==1 else x for x in a]
[4, 2, 3, 4, 3, 2, 4, 4]
您可以在迭代列表时使用内置的 enumerate
来获取索引和值。然后,使用该值来测试条件并使用索引替换原始列表中的该值:
>>> a = [1, 2, 3, 4, 5, 1, 2, 3, 4, 5, 1]
>>> for i, n in enumerate(a):
... if n == 1:
... a[i] = 10
...
>>> a
[10, 2, 3, 4, 5, 10, 2, 3, 4, 5, 10]
.index(10)
等原生列表方法相比,这确实很慢。没有理由列出每个列表元素来查找需要替换的元素。请在此处查看我的答案中的时间。
如果要替换多个值,还可以使用字典:
a = [1, 2, 3, 4, 1, 5, 3, 2, 6, 1, 1]
replacements = {1:10, 2:20, 3:'foo'}
replacer = replacements.get # For faster gets.
print([replacer(n, n) for n in a])
> [10, 20, 'foo', 4, 10, 5, 'foo', 20, 6, 10, 10]
请注意,这种方法仅在要替换的元素是可散列的情况下才有效。这是因为字典键需要是可散列的。
try-except
至少快 50%!看看这个answer
try-except
更快,但它会在第一次出现未知项目时中断循环,dic.get(n,n)
很漂亮但比 if n in dic
慢。我编辑了我的答案。
[1, {'boom!'}, 3]
)
get
方法将大大减少大型输入的运行时间。由于您实际上不需要对 dict
本身的引用,您只需将其更改为 dget = {1:10, 2:20, 3:'foo'}.get
,并将 listcomp 更改为 [dget(n, n) for n in a]
。即使在 CPython 3.9 中,它显着优化了方法调用(它不再需要在简单的情况下创建绑定的方法对象),这仍然将 len 1000 输入的开销减少了约 30%(通过将 LOAD_METHOD
/CALL_METHOD
替换为只是CALL_FUNCTION
)。
get
优化使这一点与 dic[n] if n in dic else n
方法相当(在我的大多数测试用例中花费 20-30% 的时间,而当您必须查找 { 3} 在每个循环上)。
列表理解效果很好,并且使用 enumerate 循环可以节省一些内存(b/c 操作基本上是在原地完成的)。
还有函数式编程。查看 map 的用法:
>>> a = [1,2,3,2,3,4,3,5,6,6,5,4,5,4,3,4,3,2,1]
>>> map(lambda x: x if x != 4 else 'sss', a)
[1, 2, 3, 2, 3, 'sss', 3, 5, 6, 6, 5, 'sss', 5, 'sss', 3, 'sss', 3, 2, 1]
lambda
和 map
被认为是 unpythonic。
map
+lambda
的可读性低于 并且 比等效的 listcomp 慢。当映射函数是在 C 中实现的内置函数并且输入足够大以使 map
的每项优势能够克服稍高的固定开销时,您可以从 map
中挤出一些性能,但是当 {1 } 需要一个 Python 级别的函数(例如 lambda
)一个等效的geneexpr/listcomp 可以内联(避免函数调用开销),map
确实没有提供任何好处(从 3.9 开始,对于 a = [*range(10)] * 100
的简单测试用例,这个 map
的时间是等效的 listcomp 的 2 倍)。
lambda
感到愤怒;我喜欢 map
当我已经有一个函数可以做我需要的事情时(该函数可能足够复杂以至于不值得在 listcomp 中内联,或者它是一个你无论如何都不能内联的内置函数,例如 { 3} 从文件中逐一获取行),但如果我没有这样的功能,我将不得不使用 lambda
,如前所述,它最终会变得更丑更慢,所以我不妨使用 listcomp/genexpr。
在长列表和罕见情况下,使用 list.index()
的速度大约快 3 倍 - 与其他答案中提供的单步迭代方法相比。
def list_replace(lst, old=1, new=10):
"""replace list elements (inplace)"""
i = -1
try:
while True:
i = lst.index(old, i + 1)
lst[i] = new
except ValueError:
pass
i
为 list.index
提供 start
参数)是 O(n²)
;在一个简单的本地测试中,其中 lst
参数是 list(range(10)) * 100
的结果(1000 个元素 list
,其中 100 个元素,均匀分布,被替换),这是值得注意的;这个答案(这不是幼稚的,并且实现了 O(1)
性能)在大约 25 µs 内完成了工作,而在同一台机器上,幼稚版本大约需要 615 µs。
>>> a=[1,2,3,4,5,1,2,3,4,5,1]
>>> item_to_replace = 1
>>> replacement_value = 6
>>> indices_to_replace = [i for i,x in enumerate(a) if x==item_to_replace]
>>> indices_to_replace
[0, 5, 10]
>>> for i in indices_to_replace:
... a[i] = replacement_value
...
>>> a
[6, 2, 3, 4, 5, 6, 2, 3, 4, 5, 6]
>>>
我知道这是一个非常古老的问题,并且有无数种方法可以解决。我发现更简单的是使用 numpy
包。
import numpy
arr = numpy.asarray([1, 6, 1, 9, 8])
arr[ arr == 8 ] = 0 # change all occurrences of 8 by 0
print(arr)
numpy
,这是一个很好的解决方案;它与所有其他好的解决方案相同O(n)
,但将所有工作推向矢量化 C 层操作意味着它将通过消除每个项目的解释器开销而显着优于其他解决方案。
我的用例是用一些默认值替换 None
。
我已经对这里提出的这个问题的方法进行了计时,包括@kxr 的方法 - 使用 str.count
。
使用 Python 3.8.1 在 ipython 中测试代码:
def rep1(lst, replacer = 0):
''' List comprehension, new list '''
return [item if item is not None else replacer for item in lst]
def rep2(lst, replacer = 0):
''' List comprehension, in-place '''
lst[:] = [item if item is not None else replacer for item in lst]
return lst
def rep3(lst, replacer = 0):
''' enumerate() with comparison - in-place '''
for idx, item in enumerate(lst):
if item is None:
lst[idx] = replacer
return lst
def rep4(lst, replacer = 0):
''' Using str.index + Exception, in-place '''
idx = -1
# none_amount = lst.count(None)
while True:
try:
idx = lst.index(None, idx+1)
except ValueError:
break
else:
lst[idx] = replacer
return lst
def rep5(lst, replacer = 0):
''' Using str.index + str.count, in-place '''
idx = -1
for _ in range(lst.count(None)):
idx = lst.index(None, idx+1)
lst[idx] = replacer
return lst
def rep6(lst, replacer = 0):
''' Using map, return map iterator '''
return map(lambda item: item if item is not None else replacer, lst)
def rep7(lst, replacer = 0):
''' Using map, return new list '''
return list(map(lambda item: item if item is not None else replacer, lst))
lst = [5]*10**6
# lst = [None]*10**6
%timeit rep1(lst)
%timeit rep2(lst)
%timeit rep3(lst)
%timeit rep4(lst)
%timeit rep5(lst)
%timeit rep6(lst)
%timeit rep7(lst)
我得到:
26.3 ms ± 163 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
29.3 ms ± 206 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
33.8 ms ± 191 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
11.9 ms ± 37.8 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
11.9 ms ± 60.2 µs per loop (mean ± std. dev. of 7 runs, 100 loops each)
260 ns ± 1.84 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each)
56.5 ms ± 204 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
使用内部 str.index
实际上比任何手动比较都快。
我不知道测试 4 中的异常是否会比使用 str.count
更费力,差异似乎可以忽略不计。
请注意,map()
(测试 6)返回一个迭代器而不是实际列表,因此是测试 7。
str.index
会更快。如果所有元素都是 None
,我希望 rep4
和 rep5
会非常慢,因为方法是 O(nm),而其他元素是 O(n),具有 n 个元素和 m 个 None
值.
rep4
/rep5
规模很好;它们都使用基于最后替换位置的 start
参数,因此它们仍然是 O(n)
;如果每次都在整个 list
上运行 index
是 O(n)
,但 start
参数确保所有 index
调用放在一起只遍历 list
的每个索引一次。随着点击次数的增加,它们会变慢,但由于与大 O 无关的原因(index
调用的固定开销支付更多);在实践中,使用 kxr's better version of rep4
、1000 None
s 只需要比 1000 1
s 长约 3 倍的时间。
index
调用的固定开销,那么真正完成的工作是 O(n + m)
,而不是 O(nm)
;您为每个 None
支付一次 index
的固定开销(以及重新分配值的相关工作),所有 index
调用的累积非固定开销成本为 O(n)
list
的长度。不过,真正的 big-O 计算仍将其称为 O(n)
,因为 m
以 n
为界,这意味着 m
可以解释为另一个 n
项,而 O(n + n)
与 O(n)
相同}(因为 2n
中的常数系数被删除)。
index
每次都从头开始搜索,没有引起足够的重视。不过,我对测试的评论仍然有效:它显示了不需要更换任何东西的时间。需要更好的测试数据。
这个古老但相关的问题的答案在速度上千差万别。
kxr 发布的solution中最快。
但是,这甚至更快,否则不在这里:
def f1(arr, find, replace):
# fast and readable
base=0
for cnt in range(arr.count(find)):
offset=arr.index(find, base)
arr[offset]=replace
base=offset+1
以下是各种解决方案的时间安排。较快的答案比接受的答案快 3 倍,比此处最慢的答案快 5 倍。
公平地说,所有方法都需要对发送给函数的数组进行 inlace 替换。
请看下面的时序代码:
def f1(arr, find, replace):
# fast and readable
base=0
for cnt in range(arr.count(find)):
offset=arr.index(find, base)
arr[offset]=replace
base=offset+1
def f2(arr,find,replace):
# accepted answer
for i,e in enumerate(arr):
if e==find:
arr[i]=replace
def f3(arr,find,replace):
# in place list comprehension
arr[:]=[replace if e==find else e for e in arr]
def f4(arr,find,replace):
# in place map and lambda -- SLOW
arr[:]=list(map(lambda x: x if x != find else replace, arr))
def f5(arr,find,replace):
# find index with comprehension
for i in [i for i, e in enumerate(arr) if e==find]:
arr[i]=replace
def f6(arr,find,replace):
# FASTEST but a little les clear
try:
while True:
arr[arr.index(find)]=replace
except ValueError:
pass
def f7(lst, old, new):
"""replace list elements (inplace)"""
i = -1
try:
while 1:
i = lst.index(old, i + 1)
lst[i] = new
except ValueError:
pass
import time
def cmpthese(funcs, args=(), cnt=1000, rate=True, micro=True):
"""Generate a Perl style function benchmark"""
def pprint_table(table):
"""Perl style table output"""
def format_field(field, fmt='{:,.0f}'):
if type(field) is str: return field
if type(field) is tuple: return field[1].format(field[0])
return fmt.format(field)
def get_max_col_w(table, index):
return max([len(format_field(row[index])) for row in table])
col_paddings=[get_max_col_w(table, i) for i in range(len(table[0]))]
for i,row in enumerate(table):
# left col
row_tab=[row[0].ljust(col_paddings[0])]
# rest of the cols
row_tab+=[format_field(row[j]).rjust(col_paddings[j]) for j in range(1,len(row))]
print(' '.join(row_tab))
results={}
for i in range(cnt):
for f in funcs:
start=time.perf_counter_ns()
f(*args)
stop=time.perf_counter_ns()
results.setdefault(f.__name__, []).append(stop-start)
results={k:float(sum(v))/len(v) for k,v in results.items()}
fastest=sorted(results,key=results.get, reverse=True)
table=[['']]
if rate: table[0].append('rate/sec')
if micro: table[0].append('\u03bcsec/pass')
table[0].extend(fastest)
for e in fastest:
tmp=[e]
if rate:
tmp.append('{:,}'.format(int(round(float(cnt)*1000000.0/results[e]))))
if micro:
tmp.append('{:,.1f}'.format(results[e]/float(cnt)))
for x in fastest:
if x==e: tmp.append('--')
else: tmp.append('{:.1%}'.format((results[x]-results[e])/results[e]))
table.append(tmp)
pprint_table(table)
if __name__=='__main__':
import sys
import time
print(sys.version)
cases=(
('small, found', 9, 100),
('small, not found', 99, 100),
('large, found', 9, 1000),
('large, not found', 99, 1000)
)
for txt, tgt, mul in cases:
print(f'\n{txt}:')
arr=[1,2,3,4,5,6,7,8,9,0]*mul
args=(arr,tgt,'X')
cmpthese([f1,f2,f3, f4, f5, f6, f7],args)
结果:
3.9.1 (default, Feb 3 2021, 07:38:02)
[Clang 12.0.0 (clang-1200.0.32.29)]
small, found:
rate/sec μsec/pass f4 f3 f5 f2 f6 f7 f1
f4 133,982 7.5 -- -38.8% -49.0% -52.5% -78.5% -78.6% -82.9%
f3 219,090 4.6 63.5% -- -16.6% -22.4% -64.8% -65.0% -72.0%
f5 262,801 3.8 96.1% 20.0% -- -6.9% -57.8% -58.0% -66.4%
f2 282,259 3.5 110.7% 28.8% 7.4% -- -54.6% -54.9% -63.9%
f6 622,122 1.6 364.3% 184.0% 136.7% 120.4% -- -0.7% -20.5%
f7 626,367 1.6 367.5% 185.9% 138.3% 121.9% 0.7% -- -19.9%
f1 782,307 1.3 483.9% 257.1% 197.7% 177.2% 25.7% 24.9% --
small, not found:
rate/sec μsec/pass f4 f5 f2 f3 f6 f7 f1
f4 13,846 72.2 -- -40.3% -41.4% -47.8% -85.2% -85.4% -86.2%
f5 23,186 43.1 67.5% -- -1.9% -12.5% -75.2% -75.5% -76.9%
f2 23,646 42.3 70.8% 2.0% -- -10.8% -74.8% -75.0% -76.4%
f3 26,512 37.7 91.5% 14.3% 12.1% -- -71.7% -72.0% -73.5%
f6 93,656 10.7 576.4% 303.9% 296.1% 253.3% -- -1.0% -6.5%
f7 94,594 10.6 583.2% 308.0% 300.0% 256.8% 1.0% -- -5.6%
f1 100,206 10.0 623.7% 332.2% 323.8% 278.0% 7.0% 5.9% --
large, found:
rate/sec μsec/pass f4 f2 f5 f3 f6 f7 f1
f4 145 6,889.4 -- -33.3% -34.8% -48.6% -85.3% -85.4% -85.8%
f2 218 4,593.5 50.0% -- -2.2% -22.8% -78.0% -78.1% -78.6%
f5 223 4,492.4 53.4% 2.3% -- -21.1% -77.5% -77.6% -78.2%
f3 282 3,544.0 94.4% 29.6% 26.8% -- -71.5% -71.6% -72.3%
f6 991 1,009.5 582.4% 355.0% 345.0% 251.1% -- -0.4% -2.8%
f7 995 1,005.4 585.2% 356.9% 346.8% 252.5% 0.4% -- -2.4%
f1 1,019 981.3 602.1% 368.1% 357.8% 261.2% 2.9% 2.5% --
large, not found:
rate/sec μsec/pass f4 f5 f2 f3 f6 f7 f1
f4 147 6,812.0 -- -35.0% -36.4% -48.9% -85.7% -85.8% -86.1%
f5 226 4,424.8 54.0% -- -2.0% -21.3% -78.0% -78.1% -78.6%
f2 231 4,334.9 57.1% 2.1% -- -19.6% -77.6% -77.7% -78.2%
f3 287 3,484.0 95.5% 27.0% 24.4% -- -72.1% -72.2% -72.8%
f6 1,028 972.3 600.6% 355.1% 345.8% 258.3% -- -0.4% -2.7%
f7 1,033 968.2 603.6% 357.0% 347.7% 259.8% 0.4% -- -2.3%
f1 1,057 946.2 619.9% 367.6% 358.1% 268.2% 2.8% 2.3% --
f6
是 O(n²)
因为它在内部使用 index
而不调整搜索的开始位置。在仅由要替换的东西组成的 list
中,这意味着 n
调用 index
,每个调用平均执行 n / 2
工作(第一个是 1
工作,最后一个是 n
工作, 它在两者之间进行计数;list
的第一个元素被检查 n
次,第二个 n - 1
次,等等)。 kxr's answer 跟踪每个替换的位置并使用它来避免重新检查,将其保持为 O(n)
。
f1
所以现在它跟踪基本偏移量。没有了O(n²)
+1
,它会重新扫描它刚刚替换的每个元素,因此在要替换的所有元素的 list
中,它会检查每个索引两次,而不是只检查一次,但这是一个固定的乘数,不会影响大-O(避免 + 1
可以节省大量工作;简单数学的开销非常高)。有一个重大问题:如果替换值与搜索值比较,它将进入无限循环,因此,如果您将 1
替换为 True
或 1.0
,kaboom;我更喜欢 kxr 的防弹方法。
我可能是个笨蛋,但我会为此编写一个单独的简单函数:
def convertElements( oldlist, convert_dict ):
newlist = []
for e in oldlist:
if e in convert_dict:
newlist.append(convert_dict[e])
else:
newlist.append(e)
return newlist
然后根据需要调用它,如下所示:
a = [1,2,3,4,5,1,2,3,4,5,1]
a_new = convertElements(a, {1: 10})
## OUTPUT: a_new=[10, 2, 3, 4, 5, 10, 2, 3, 4, 5, 10]
if/else
。只需执行 newlist.append(convert_dict.get(e, e))
。 get
方法有一个 default
参数,如果键不在字典中,则返回该参数。所以如果不是,就返回吧……那么它也可以更方便的变成list-comp:newlist = [convert_dict.get(e, e) for e in oldlist]
不定期副业成功案例分享
a
对吧?我认为 OP 希望a
改变a
是否应该变异的问题是模糊的,但是(如 Alekhya 所示)在使用列表理解时处理这两种情况都是微不足道的。a
那么你应该做a[:] = [4 if x==1 else x for x in a]
(注意完整的列表切片)。只需执行a =
将创建一个新列表a
,其id()
(身份)与原始列表不同list
主要是保持不变的项目时,这比 kxr's answer 等优化的就地解决方案要慢。 kxr 的答案,对于 len 1000 个输入,需要 1/3 时间(没有需要更换的物品)到 3 倍(必须更换所有物品);多变。