最近有一大堆质谱数据,但好多蛋白都是已经研究过得,为了寻找和bait蛋白相关,但又特异的假定蛋白,决定写个Python程序过滤掉不需要的信息,保留想要的信息。
方案:
1,找出所有质谱数据中特异蛋白中的假定蛋白并按得分高低排序。
2,根据蛋白序列号找出假定蛋白可能含有的结构域,写入excel文件。
3,说干就干
第一步主要用集合的性质去重,用re正则表达式找出序列号,用openpyxl写入excel,根据得分排序。
#质谱蛋白去重 import re import openpyxl reg = re.compile(r‘MGG_\d{5}‘) def read_csv(name): with open(name,‘r‘) as f: csv_data = f.read() csv_num = re.findall(reg, csv_data) return set(csv_num) def write_excel(file,filename): wb = openpyxl.Workbook() ws = wb.active ws[‘A1‘],ws[‘B1‘],ws[‘C1‘],ws[‘D1‘],ws[‘E1‘] = ‘序列号‘,‘蛋白信息‘,‘得分‘,‘覆盖度‘,‘分子量‘ ws.freeze_panes = ‘A2‘ for num in unique: for line in open(file): #print(line+‘****‘) if num in line and ‘hypothetical protein‘ in line: ws.append((line.split(‘,‘)[1:])) wb.save(filename) if __name__ == ‘__main__‘: ATG3 = read_csv(r‘C:\Users\zhuxueming\Desktop\ATG3.csv‘)#添加所需比对的文件,以及绝对路径。需要.csv格式的excel Vps9 = read_csv(r‘C:\Users\zhuxueming\Desktop\vps9.csv‘)#添加所需比对的文件,以及绝对路径。需要.csv格式的excel K3G4 = read_csv(r‘C:\Users\zhuxueming\Desktop\K3G4.csv‘)#添加所需比对的文件,以及绝对路径。需要.csv格式的excel unique = ATG3-(Vps9|K3G4)#进行数据筛选,ATG3-(Vps9|K3G4)代表ATG3中的数据有,而vps9和K3G4中都没有的集合。-号为差集,|为并集 #unique_Vps9 = Vps9-(K3G4|ATG3) write_excel(r‘C:\Users\zhuxueming\Desktop\ATG3.csv‘, r‘C:\Users\zhuxueming\Desktop\unique_Atg31.xlsx‘)#第一个为需要比对的文件,第二个为所输出的excel和路径
>>>
第二步,根据第一步excel中的序列号在NCBI上找出结构域信息获取并写入新的excel中。
import requests import re import openpyxl from bs4 import BeautifulSoup head = {‘User-Agent‘:‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36‘} url = r‘https://www.ncbi.nlm.nih.gov/gene/?term=‘ wb = openpyxl.Workbook() ws = wb.active ws[‘A1‘],ws[‘B1‘],ws[‘C1‘],ws[‘D1‘],ws[‘E1‘] = ‘假定蛋白信息‘,‘得分‘,‘结构域1‘,‘结构域2‘,‘结构域3‘ ws.freeze_panes = ‘A2‘ def seq_data(file, filename): for line in open(file): if ‘MGG_‘ in line: score = line.split(‘,‘)[2] MGG = re.search(r‘MGG_\d{5}‘,line).group(0) full_url = url + MGG l = [] l.append(MGG) l.append(score) try: res = requests.get(full_url,headers = head) res.encoding = ‘utf-8‘ soup = BeautifulSoup(res.text,‘lxml‘) domain = soup.find_all("dd",class_=‘clearfix‘)#获取标签内容 for each in domain: l.append(each.text) except BaseException: pass ws.append(l)#写入excel wb.save(filename)#保存 if __name__ == ‘__main__‘: seq_data(r‘C:\Users\zhuxueming\Desktop\unique_Atg31.csv‘, r‘C:\Users\zhuxueming\Desktop\ATG3_special_hyp_protein_domain.xlsx‘)