Policy:User-Agent policy/ko: Difference between revisions

From Wikimedia Foundation Governance Wiki
Content deleted Content added
Created page with "2010년 2월 15일부터 위키미디어 사이트는 모든 요청에 대해 '''HTTP 사용자-에이전트 헤더'''를 요구합니다. 이것은 기술 직원이 내린 운영 결정이며 기술 메일링 리스트에 발표되고 논의되었습니다.<ref>Wikitech-l 2010년 2월 주제별 아카이브</ref><ref>사용자-에이전트: - Wikitech-l - lists.wikimedia.org</ref> 이유는 사용자-에이전트 문자열을 보내지 않는 클라..."
Created page with "설명적인 사용자-에이전트 헤더를 보내지 않는 요청(예: 브라우저 또는 스크립트에서)은 다음과 같은 오류 메시지가 나타날 수 있습니다."
Line 4: Line 4:
2010년 2월 15일부터 위키미디어 사이트는 모든 요청에 대해 '''HTTP [[{{lwp|User-Agent}}|사용자-에이전트]] 헤더'''를 요구합니다. 이것은 기술 직원이 내린 운영 결정이며 기술 메일링 리스트에 발표되고 논의되었습니다.<ref>[[mailarchive:wikitech-l/2010-February/thread.html#46764|Wikitech-l 2010년 2월 주제별 아카이브]]</ref><ref>[[listarchive:list/wikitech-l@lists.wikimedia.org/thread/R4RU7XTBM5J3BTS6GGQW77NYS2E4WGLI/|사용자-에이전트: - Wikitech-l - lists.wikimedia.org]]</ref> 이유는 사용자-에이전트 문자열을 보내지 않는 클라이언트는 대부분 프로젝트에 도움이 되지 않고 서버에 많은 부하를 유발하는 잘못된 동작을 하는 스크립트라는 것입니다. <code>python-requests/x</code>와 같이 설명이 없는 기본값으로 시작하는 사용자 에이전트 문자열은 위키미디어 사이트(또는 웹사이트의 일부, 예: <code>api.php</code>)에서 차단될 수도 있습니다.
2010년 2월 15일부터 위키미디어 사이트는 모든 요청에 대해 '''HTTP [[{{lwp|User-Agent}}|사용자-에이전트]] 헤더'''를 요구합니다. 이것은 기술 직원이 내린 운영 결정이며 기술 메일링 리스트에 발표되고 논의되었습니다.<ref>[[mailarchive:wikitech-l/2010-February/thread.html#46764|Wikitech-l 2010년 2월 주제별 아카이브]]</ref><ref>[[listarchive:list/wikitech-l@lists.wikimedia.org/thread/R4RU7XTBM5J3BTS6GGQW77NYS2E4WGLI/|사용자-에이전트: - Wikitech-l - lists.wikimedia.org]]</ref> 이유는 사용자-에이전트 문자열을 보내지 않는 클라이언트는 대부분 프로젝트에 도움이 되지 않고 서버에 많은 부하를 유발하는 잘못된 동작을 하는 스크립트라는 것입니다. <code>python-requests/x</code>와 같이 설명이 없는 기본값으로 시작하는 사용자 에이전트 문자열은 위키미디어 사이트(또는 웹사이트의 일부, 예: <code>api.php</code>)에서 차단될 수도 있습니다.


설명적인 사용자-에이전트 헤더를 보내지 않는 요청(예: 브라우저 또는 스크립트에서)은 다음과 같은 오류 메시지가 나타날 수 있습니다.
<div lang="en" dir="ltr" class="mw-content-ltr">
Requests (e.g. from browsers or scripts) that do not send a descriptive User-Agent header, may encounter an error message like this:
</div>


:<span lang="en" dir="ltr" class="mw-content-ltr">''Scripts should use an informative User-Agent string with contact information, or they may be blocked without notice.''</span>
:<span lang="en" dir="ltr" class="mw-content-ltr">''Scripts should use an informative User-Agent string with contact information, or they may be blocked without notice.''</span>

Revision as of 00:54, 29 March 2024

2010년 2월 15일부터 위키미디어 사이트는 모든 요청에 대해 HTTP 사용자-에이전트 헤더를 요구합니다. 이것은 기술 직원이 내린 운영 결정이며 기술 메일링 리스트에 발표되고 논의되었습니다.[1][2] 이유는 사용자-에이전트 문자열을 보내지 않는 클라이언트는 대부분 프로젝트에 도움이 되지 않고 서버에 많은 부하를 유발하는 잘못된 동작을 하는 스크립트라는 것입니다. python-requests/x와 같이 설명이 없는 기본값으로 시작하는 사용자 에이전트 문자열은 위키미디어 사이트(또는 웹사이트의 일부, 예: api.php)에서 차단될 수도 있습니다.

설명적인 사용자-에이전트 헤더를 보내지 않는 요청(예: 브라우저 또는 스크립트에서)은 다음과 같은 오류 메시지가 나타날 수 있습니다.

Scripts should use an informative User-Agent string with contact information, or they may be blocked without notice.

Requests from disallowed user agents may instead encounter a less helpful error message like this:

Our servers are currently experiencing a technical problem. Please try again in a few minutes.

This change is most likely to affect scripts (bots) accessing Wikimedia websites such as Wikipedia automatically, via api.php or otherwise, and command line programs.[3] If you run a bot, please send a User-Agent header identifying the bot with an identifier that isn't going to be confused with many other bots, and supplying some way of contacting you (e.g. a userpage on the local wiki, a userpage on a related wiki using interwiki linking syntax, a URI for a relevant external website, or an email address), e.g.:

User-Agent: CoolBot/0.0 (https://example.org/coolbot/; coolbot@example.org) generic-library/0.0

The generic format is <client name>/<version> (<contact information>) <library/framework name>/<version> [<library name>/<version> ...]. Parts that are not applicable can be omitted.

If you run an automated agent, please consider following the Internet-wide convention of including the string "bot" in the User-Agent string, in any combination of lowercase or uppercase letters. This is recognized by Wikimedia's systems, and used to classify traffic and provide more accurate statistics.

Do not copy a browser's user agent for your bot, as bot-like behavior with a browser's user agent will be assumed malicious.[4] Do not use generic agents such as "curl", "lwp", "Python-urllib", and so on. For large frameworks like pywikibot, there are so many users that just "pywikibot" is likely to be somewhat vague. Including detail about the specific task/script/etc would be a good idea, even if that detail is opaque to anyone besides the operator.[5]

Web browsers generally send a User-Agent string automatically; if you encounter the above error, please refer to your browser's manual to find out how to set the User-Agent string. Note that some plugins or proxies for privacy enhancement may suppress this header. However, for anonymous surfing, it is recommended to send a generic User-Agent string, instead of suppressing it or sending an empty string. Note that other features are much more likely to identify you to a website — if you are interested in protecting your privacy, visit the Cover Your Tracks project.

Browser-based applications written in JavaScript are typically forced to send the same User-Agent header as the browser that hosts them. This is not a violation of policy, however such applications are encouraged to include the Api-User-Agent header to supply an appropriate agent.

As of 2015, Wikimedia sites do not reject all page views and API requests from clients that do not set a User-Agent header. As such, the requirement is not automatically enforced. Rather, it may be enforced in specific cases as needed.

[6]

Code examples

On Wikimedia wikis, if you don't supply a User-Agent header, or you supply an empty or generic one, your request will fail with an HTTP 403 error. Other MediaWiki installations may have similar policies.

JavaScript

If you are calling the API from browser-based JavaScript, you won't be able to influence the User-Agent header: the browser will use its own. To work around this, use the Api-User-Agent header:

// Using XMLHttpRequest
xhr.setRequestHeader( 'Api-User-Agent', 'Example/1.0' );
// Using jQuery
$.ajax( {
    url: 'https://example/...',
    data: ...,
    dataType: 'json',
    type: 'GET',
    headers: { 'Api-User-Agent': 'Example/1.0' },
} ).then( function ( data )  {
    // ..
} );
// Using mw.Api
var api = new mw.Api( {
    ajax: {
        headers: { 'Api-User-Agent': 'Example/1.0' }
    }
} );
api.get( ... ).then( function ( data ) {
    // ...
});
// Using Fetch
fetch( 'https://example/...', {
    method: 'GET',
    headers: new Headers( {
        'Api-User-Agent': 'Example/1.0'
    } )
} ).then( function ( response ) {
    return response.json();
} ).then( function ( data ) {
    // ...
});

PHP

In PHP, you can identify your user-agent with code such as this:

ini_set( 'user_agent', 'CoolBot/0.0 (https://example.org/coolbot/; coolbot@example.org)' );

cURL

Or if you use cURL:

curl_setopt( $curl, CURLOPT_USERAGENT, 'CoolBot/0.0 (https://example.org/coolbot/; coolbot@example.org)' );

Python

In Python, you can use the Requests library to set a header:

import requests

url = 'https://example/...'
headers = {'User-Agent': 'CoolBot/0.0 (https://example.org/coolbot/; coolbot@example.org)'}

response = requests.get(url, headers=headers)
from SPARQLWrapper import SPARQLWrapper, JSON

url = 'https://example/...'
user_agent = 'CoolBot/0.0 (https://example.org/coolbot/; coolbot@example.org)'

sparql = SPARQLWrapper(url, agent = user_agent )
results = sparql.query()

참고

  1. Wikitech-l 2010년 2월 주제별 아카이브
  2. 사용자-에이전트: - Wikitech-l - lists.wikimedia.org
  3. API:FAQ - MediaWiki
  4. [Wikitech-l] User-Agent:
  5. Clarification on what is needed for "identifying the bot" in bot user-agent?
  6. gmane.science.linguistics.wikipedia.technical/83870 (deadlink)

같이 보기