ChatGPT解决这个技术问题 Extra ChatGPT

如何替换 Pandas 数据框字符串列中的文本?

我的数据框中有一列,如下所示:

range
"(2,30)"
"(50,290)"
"(400,1000)"
... 

我想用 - 破折号替换 , 逗号。我目前正在使用这种方法,但没有任何改变。

org_info_exc['range'].replace(',', '-', inplace=True)

有人可以帮忙吗?


s
smci

使用矢量化 str 方法 replace

df['range'] = df['range'].str.replace(',','-')

df
      range
0    (2-30)
1  (50-290)

编辑:所以如果我们看看你尝试了什么以及为什么它不起作用:

df['range'].replace(',','-',inplace=True)

docs 我们看到这样的描述:

str 或正则表达式: str: 与 to_replace 完全匹配的字符串将被替换为值

所以因为 str 值不匹配,所以不会发生替换,与下面的比较:

df = pd.DataFrame({'range':['(2,30)',',']})
df['range'].replace(',','-', inplace=True)

df['range']

0    (2,30)
1         -
Name: range, dtype: object

在这里,我们在第二行得到了完全匹配,并且发生了替换。


k
kevcisme

对于从谷歌搜索到达这里的其他人,了解如何在 all 列上进行字符串替换(例如,如果一个有多个列,如 OP 的“范围”列):Pandas 有一个内置的 {1数据框对象上可用的方法。

df.replace(',', '-', regex=True)

来源:Docs


regex=True 对我来说很关键。谢谢!
regex=True 对我的解决方案也很重要。谢谢,@kevcisme。
a
adiga

将列名中的所有逗号替换为下划线

data.columns= data.columns.str.replace(' ','_',regex=True)

N
Nancy K

如果您只需要替换一个特定列中的字符,不知何故 regex=True 和 in place=True 都失败了,我认为这种方式会起作用:

data["column_name"] = data["column_name"].apply(lambda x: x.replace("characters_need_to_replace", "new_characters"))

在这种情况下,lambda 更像是一个像 for 循环一样工作的函数。这里的 x 代表当前列中的每个条目。

您唯一需要做的就是更改“column_name”、“characters_need_to_replace”和“new_characters”。


这符合我的要求。谢谢你。
这就是我最终要替换的内容,但我得到“正在尝试在 DataFrame 的切片副本上设置 A 值”。警告。生成的数据框正是我想要的,但警告令人反感。而不是仅仅关闭警告,我正在寻找一种非警告诱导方式。
谢谢!您还需要在 lambda 函数的参数中进行一些转换,例如使用 str(x) 将所有 x 转换为字符串
c
cdutra

此外,对于那些希望在一列中替换多个字符的人,您可以使用正则表达式来完成:

import re
chars_to_remove = ['.', '-', '(', ')', '']
regular_expression = '[' + re.escape (''. join (chars_to_remove)) + ']'

df['string_col'].str.replace(regular_expression, '', regex=True)

F
Freddie

几乎与 Nancy K 的答案相似,这对我有用:

data["column_name"] = data["column_name"].apply(lambda x: x.str.replace("characters_need_to_replace", "new_characters"))

s
smci

如果要从字符串中删除两个或多个元素,例如字符 '$' 和 ',' :

Column_Name
===========
$100,000
$1,100,000

...然后使用:

data.Column_Name.str.replace("[$,]", "", regex=True)

=> [ 100000, 1100000 ]