Spark dataframe 中怎么实现一列中匹配下是否包含另外一列的值

实现类型Oracle中类似 regexp_like(colum1,colum2) 这样的功能,colum2是根据列值不同动态匹配的字符串。
在Spark 中这样写
f.instr(df.col1,df.col2).alias("t1")
回报 TypeError: 'Column' object is not callable 因为df.col2值Column类型, 这个逻辑该怎么写呢?

要回复问题请先登录注册