를 제출하지만, 실행은 그때 스크립트를 암호 라인을 주석 처리하면 내가 br.submit() import mechanize
...
br = mechanize.Browser()
br.open("https://coinotron.com/app?action=logon")
form = br.select_form(nr=0)
br.form["name"] = "
Selecting an unnamed text field in a mechanize form (python) 및 Use mechanize to submit form without control name과 비슷한 문제가 있습니다. 로그인 화면 뒤에있는 웹 사이트의 데이터를 긁어 내고 싶습니다. 그러나 이름이없는 양식 필드를 선택하는 방법을 모르겠습니다. <T
나는 페이스 북에서 내 친구들의 목록을 수집 한 후 데이터가있는 웹을 구성한다는 목표로 그들과 상호적인 친구들의 목록을 긁어 모으고 있습니다. 나는 공식 facebook API를 보았고 그렇게 할 수없는 것 같아서 웹 페이지에서 단순히 긁어 모으기로 결정했다. 기계화를 사용하여 로그인 한 후 페이지를 긁어서 한 번에 20 명의 친구 만로드하고 스크롤하면 더
나는 gmail.com을 스크랩하려고하는데 기계화를 사용하여 인증을하지만 Gmail에 2 단계 인증이 있기 때문에 매우 까다 롭지 만 로그인 할 수는 있지만 문제는 발생합니다. /Library/Frameworks/Python.framework/Versions/2.7/bin/python2.7/사용자/vivekrahul/PycharmProjects/제목/샘플
thread.Timer 클래스를 사용하려고하는데 충돌이 계속 발생합니다. 다음은 아이디어입니다. 웹 응용 프로그램에서 최적화를 시작하는 코드가 있습니다. 최적화가 시작되면, 나는 최적화가 끝났는 지 또는 여전히 실행 중인지를 알기 위해 주기적으로 요청을 웹 어플리케이션 서버에 보내고 싶다. def checkPeriodically(self):
pri
기계화를 사용하여 데이터를 웹 양식에 제출하는 python 스크립트를 만들려고합니다. 이 내가 지금 무엇을해야하는지에 붙어 지금까지 import mechanize
username = <my_username>
password = <my_password>
url = <my_url>
print "opening browser"
br = mechan
작동, 내가가 나타납니다 ('Connection aborted.', error(54, 'Connection reset by peer'))
는 또한 기계화 및 URLLIB를 통해 사이트에 액세스 시도, 모두 실패했습니다. 그러나 cURL 잘 작동합니다 (코드 끝을 참조). , stream=True의 조합으로 requests.get()을 시도했으며 cURL
나는 파이썬에 아주 새로운 해요, 나는에 로그를 필요 BeautifulSoup로를 사용하여 웹 페이지를 긁어 노력하고있어. 를 지금까지 내가 가지고있는 "URL", "이메일을 import mechanize
import cookielib
import requests
from bs4 import BeautifulSoup
# Browser
br = m
을 기계화 : import mechanize
br = mechanize.Browser()
br.set_handle_robots(False)
br.open("https://www.facebook.com/login/identify?ctx=recover")
for i in bt.forms():
print i
결과는 다음과 같습니다 <POST
이 저장 계정에 넣은 텍스트 파일에 액세스하여 일반 파일로 사용할 수 있습니까? mechanize 및 urllib로 시도했지만 성공할 수 없습니다. 나는 그것이 부과 할 수있는 한계 때문에 API 사용에 관심이 없다. 누군가가이를위한 방법을 제안하거나 ftp 또는 다른 방법을 통해 계정에 액세스하는 최소한의 방법을 제시 할 수 있습니까? 미리 감사드립니다.