Проблема следующая. На предприятии AD, выход в инет через прокси, есть ДМЗ. Прокси и его порт прописываюся в настройках браузера, в разделе _подключения_. Для доступа в ДМЗ используется ISA 2006 (у меня стоит Isa client 2004). В инет ходим через squid.
После установки Windows 7 (на чистую машину) IExplorer настроил как обычно, прописал прокси и порт, но IExplorer отказывается выходить в инет (соответственно отваливается возможность активации и получения обновлений). При запуске запрашаваются логин и пароль, но в итоге получаю страничку со следующим сообщением:
==============================
ОШИБКА: Доступ к кэшу запрещён.<!—BODY{background-color:#ffffff;font-family:verdana,sans-serif}PRE{font-family:sans-serif}—>
ОШИБКА
Доступ к кэшу запрещён
Во время доставки URL: http://go.microsoft.com/fwlink/?
Произошла следующая ошибка:
- Доступ к кэшу запрещён
Извините, Вы не можете запросить:
http://go.microsoft.com/fwlink/?
из этого кэша до тех пор, пока не пройдёте аутентификацию.
Для этого Вам необходим Netscape версии 2.0 либо выше, или Microsoft Internet Explorer 3.0, или HTTP/1.1 совместимый броузер. Пожалуйста свяжитесь с администратором кэша , если у Вас возникли проблемы с аутентификацией, либо смените Ваш пароль по умолчанию.
Generated Thu, 18 Jun 2009 04:11:33 GMT by apk-proxy2.apk.gov (squid/2.6.STABLE18)
==============================
В FireFox такой проблемы нет . В настройках указал прокси, ввел логин и пароль и вот сижу, пишу это письмо.
На XP и Vista тоже все OK .
Ставил следующие сборки 7100(rus), 7201, сейчас стоит 7231(rus) — ситуация не меняется.
Вопрос, что и где подкрутить?
Инструкции по настройке интернета на ПК
Перед настройкой убедитесь, что устройство подключено к сети МАДИ либо по кабелю, либо через Wi-Fi. Для выхода в сеть интернет необходимо настроить прокси-сервер.
Для этого выполните следующие действия:
- Откройте Internet Explorer.
- Windows XP: Нажмите на кнопку Cервис (меню сверху), выберете «Свойства обозревателя».
Windows 7 и выше: Нажмите на кнопку Cервис (шестеренка в правом верхнем углу), выберете «Свойства браузера». - В открывшемся окне среди верхних вкладок выберите «Подключения».
- Windows XP: Нажмите на кнопке «Настройка LAN».
Windows 7 и выше: Нажмите на кнопке «Настройка сети». - В открывшемся окне поставьте галочку «Использовать прокси-сервер…», в поле «Адрес» введите 192.168.10.1, в поле «Порт» — 8080.
- Закройте окна нажатием на ОК. Закройте Internet Explorer.
- Запустите браузер и попробуйте воспользоваться интернетом. Если появится окно с предложением ввести имя пользователя и пароль, воспользуйтесь данными, полученными в Управлении информатизации.
Ошибки при работе:
- ОШИБКА Доступ к кэшу запрещен (ERROR Cache access denied)
Неправильно введены логин или пароль.
Решение проблемы:
Обновите страницу и попробуйте ввести данные еще раз. - Не удается получить доступ к сайту
Неправильно настроен прокси-сервер, либо вы не подключены к сети МАДИ.
Решение проблемы:
1) Проверьте настройки прокси-сервера по шагам 1-7.
2) Проверьте подключение по кабелю или Wi-Fi сети.
I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
proxies = {
"http": r"http://usr:pass@202.141.80.22:3128",
"https": r"http://usr:pass@202.141.80.22:3128",
}
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url,proxies=proxies)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
But while running on terminal in ubuntu 14.04 I am getting the following error:
The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?
Cache Access Denied.
Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.
The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/
Please help me
asked Feb 13, 2016 at 13:39
- open the url.
- hit F12(chrome user)
- now go to «network» in the menu below.
- hit f5 to reload the page so that chrome records all the data received from server.
- open any of the «received file» and go down to «request header»
- pass all the header to request.get()
.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png
Make the header as follows:
headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}
answered Feb 20, 2016 at 5:42
Sumit JhaSumit Jha
2,0552 gold badges20 silver badges35 bronze badges
There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable
Open terminal (CTRL + ALT + T)
export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"
and remove the proxy lines from your code
Here is the changed code:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
answered Aug 22, 2016 at 12:54
alphaguyalphaguy
5403 silver badges17 bronze badges
I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
proxies = {
"http": r"http://usr:pass@202.141.80.22:3128",
"https": r"http://usr:pass@202.141.80.22:3128",
}
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url,proxies=proxies)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
But while running on terminal in ubuntu 14.04 I am getting the following error:
The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?
Cache Access Denied.
Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.
The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/
Please help me
asked Feb 13, 2016 at 13:39
- open the url.
- hit F12(chrome user)
- now go to «network» in the menu below.
- hit f5 to reload the page so that chrome records all the data received from server.
- open any of the «received file» and go down to «request header»
- pass all the header to request.get()
.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png
Make the header as follows:
headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}
answered Feb 20, 2016 at 5:42
Sumit JhaSumit Jha
2,0552 gold badges20 silver badges35 bronze badges
There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable
Open terminal (CTRL + ALT + T)
export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"
and remove the proxy lines from your code
Here is the changed code:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
answered Aug 22, 2016 at 12:54
alphaguyalphaguy
5403 silver badges17 bronze badges
rooffy
02.03.17 — 17:50
На сайте npchk.nalog.ru есть возможность проверить контрагентов как гет запросом, так и с помощью вебсервиса.
Пытаюсь подцепить данный вебсервис и выдает ошибку:
При вызове веб-сервиса произошла ошибка. Ошибка HTTP: HTTP Status 407.
.
ERROR Cache Доступ запрещён. При получении URL http://npchk.nalog.ru/FNSNDSCAWS_2 произошла следующая ошибка Доступ к кэшу запрещён. Извините, Вы не можете запросить http://npchk.nalog.ru/FNSNDSCAWS_2 из этого кэша до тех пор, пока не пройдёте аутентификацию. Please contact the cache administrator if you have difficulties authenticating yourself. Создано Thu, 02 Mar 2017 14:43:37 GMT на прокси (squid/3.3.8)
код:
прокси1 = новый ИнтернетПрокси;
прокси1.Установить(«http», «прокси», порт);
прокси1.Пользователь=»проксилогин»;
прокси1.Пароль =»проксипароль»;
Определение = Новый WSОпределения(«http://npchk.nalog.ru/FNSNDSCAWS_2?wsdl»,»проксилогин»,»проксипароль»,прокси1);
Прокси = Новый WSПрокси(Определение, «http://ws.unisoft»;, «FNSNDSCAWS2», «FNSNDSCAWS2_Port»);
Запрос = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2»));
Контрагент = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2_NP»));
ДанныеК = новый запрос;
ДанныеК.Текст =»ВЫБРАТЬ ПЕРВЫЕ 30
| Контрагенты.ИНН,
| Контрагенты.КПП
|ИЗ
| Справочник.Контрагенты КАК Контрагенты
|ГДЕ
| Контрагенты.ИНН <> &ИНН» ;
ДанныеК.УстановитьПараметр(«ИНН»,»»);
ДанныеПоКонтрагентам = ДанныеК.Выполнить().Выгрузить();
Для каждого ДанныеПоКонтрагенту Из ДанныеПоКонтрагентам Цикл
Контрагент.INN = ДанныеПоКонтрагенту.ИНН;
Контрагент.KPP = ДанныеПоКонтрагенту.КПП;
Контрагент.DT = Формат(ТекущаяДата(), «ДФ=dd.MM.yyyy»);
Запрос.NP.Добавить(Контрагент);
КонецЦикла;
РезультатЗапроса = Прокси.NdsRequest2(Запрос);
Для каждого ОтветДляКонтрагента из РезультатЗапроса.NP Цикл
Сообщить(ОтветДляКонтрагента.State);
КонецЦикла;
ошибка возникает при попытке получить РезультатЗапроса.
ошибка 407 — проблемы с прокси, но где его еще указать не понимаю.
при чем это на 8.3, на 8.2 в описании WSОпределения вообще нет возможности передать ИнтернетПрокси
может кто знает в чем ошибка?
rooffy
4 — 03.03.17 — 12:00
(1) Вроде нет, ИнтернетПрокси я передаю в WSОпределения, а с WSПрокси работаю дальше
(2) Почитал, у меня все настроено уже для второй версии
Вообще раньше делал через Пост-запрос напрямую на сайт, но пару недель как появилась ошибка «Произошла исключительная ситуация (WinHttp.WinHttpRequest): Не удается установить соединение с сервером» при отработке WinHttp.Send(ТекСтрока) хотя сайт работает и настройки Прокси актуальные
Permalink
Cannot retrieve contributors at this time
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
<!DOCTYPE HTML PUBLIC «-//W3C//DTD HTML 4.01 Transitional//EN» «http://www.w3.org/TR/html4/loose.dtd»> | |
<HTML><HEAD><META HTTP-EQUIV=»Content-Type» CONTENT=»text/html; charset=windows-1251″> | |
<TITLE>ОШИБКА: Доступ к кэшу запрещён.</TITLE> | |
<STYLE type=»text/css»><!—BODY{background-color:#ffffff;font-family:verdana,sans-serif}PRE{font-family:sans-serif}—></STYLE> | |
</HEAD> | |
<BODY> | |
<H1>ОШИБКА</H1> | |
<H2>Доступ к кэшу запрещён</H2> | |
<HR noshade size=»1px»> | |
<P> | |
Во время доставки URL: | |
<A HREF=»%U»>%U</A> | |
<P> | |
Произошла следующая ошибка: | |
<UL> | |
<LI> | |
<STRONG> | |
Доступ к кэшу запрещён | |
</STRONG> | |
</UL> | |
</P> | |
<P>Извините, Вы не можете запросить: | |
<PRE> %U</PRE> | |
из этого кэша до тех пор, пока не пройдёте аутентификацию. | |
</P> | |
<P> | |
Для этого Вам необходим Netscape версии 2.0 либо выше, или Microsoft Internet | |
Explorer 3.0, или HTTP/1.1 совместимый броузер. Пожалуйста свяжитесь | |
с <A HREF=»mailto:%w»>администратором кэша</a>, если у Вас возникли проблемы | |
с аутентификацией, либо <A HREF=»http://%h/cgi-bin/chpasswd.cgi»>смените</a> | |
Ваш пароль по умолчанию. | |
</P> |
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
SqUid3 + ntlm (как найти ошибку ?)
Доброе время суток.
Воспользовался серией статей для установки и настройки SQUID + AD.
Но увы где то допустил ошибку.
Прошу помощи в нахождении оной.
Суть такая, Basic работает и пускает пользователей согласно списка групп.
Но если я включаю NTLM, IE упорно спрашивает пароль, а Chrom не спрашивает кто я такой.
С Ubuntu я на вы.
————————————
access.log пишет
TCP_DENIED/407 3980 CONNECT clients4.google.com:443 — HIER_NONE/- text/html
———————————-
testparm
Load smb config files from /etc/samba/smb.conf
rlimit_max: increasing rlimit_max (1024) to minimum Windows limit (16384)
Loaded services file OK.
Server role: ROLE_DOMAIN_MEMBER
Press enter to see a dump of your service definitions
[global]
workgroup = ABS
realm = ABS.LOCOL
interfaces = 172.16.0.0/24
bind interfaces only = Yes
security = ADS
winbind enum users = Yes
winbind enum groups = Yes
winbind use default domain = Yes
winbind nss info = rfc2307
idmap config ABS:range = 10000-80000
idmap config ABS:backend = rid
idmap config *:range = 10000-80000
idmap config * : backend = tdb
———————————-
sudo net ads keytab list
Warning: «kerberos method» must be set to a keytab method to use keytab functions.
Vno Type Principal
3 des-cbc-crc HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 des-cbc-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 arcfour-hmac-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes256-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes128-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
———————
al-sgw002:~$ sudo getent group winbindd_priv
winbindd_priv129:proxy
——————
al-sgw002:~$ sudo ps -aux | grep /usr/sbin/squid3
proxy 3672 0.0 1.2 132124 39432 ? Ss Қаң28 0:16 /usr/sbin/squid3 -N -YC -f /etc/squid3/squid.conf
Прошу наставлений на путь истинный.
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 08:48
# SQUID 3.3.8 Configuration
# ——————————————————————————
#
# OPTIONS FOR AUTHENTICATION
# ——————————————————————————
#
# Negotiate Kerberos and NTLM authentication
#—-
auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth —ntlm /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp —kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s «HTTP/al-sgw002.abs.locol@abs.locol»
auth_param negotiate children 200 startup=50 idle=10
auth_param negotiate keep_alive off
# Only NTLM authentication
#—
auth_param ntlm program /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off
# Basic authentication via ldap for clients not authenticated via kerberos/ntlm
auth_param basic program /usr/lib/squid3/basic_ldap_auth -v 3 -P -R -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «sAMAccountName=%s» -h 172.16.0.32
auth_param basic children 20
auth_param basic realm «DC1 SQUID Proxy Server Basic authentication!»
auth_param basic credentialsttl 2 hours
# ACCESS CONTROLS
# ——————————————————————————
#
# LDAP authorization
external_acl_type memberof ttl=3600 ipv4 %LOGIN /usr/lib/squid3/ext_ldap_group_acl -v 3 -P -R -K -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «(&(objectclass=person)(sAMAccountName=%v)(memberOf:1.2.840.113556.1.4.1941:=cn=%g,OU=internet,OU=Groups,DC=abs,DC=locol))» -h 172.16.0.32
#
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 08:53
У пользователя вот такая ошибка
*************
ERROR
Cache Доступ запрещён.
———————————————————————————
При получении URL http://ya.ru/ произошла следующая ошибка
Доступ к кэшу запрещён.
Извините, Вы не можете запросить http://ya.ru/ из этого кэша до тех пор, пока не пройдёте аутентификацию.
************************************************
-
Алексей Максимов
- Администратор сайта
- Сообщения: 571
- Зарегистрирован: 14 сен 2012 06:50
- Откуда: г.Сыктывкар
- Контактная информация:
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Алексей Максимов » 29 янв 2016 09:06
Вполне возможно что проблема вообще с Kerberos а не с NTLM.
Попробуйте отключить вообще Kerberos используя только NTLM аутентификацию.
Для этого закомментируйте блок:
Код: Выделить всё
# -----------------------------------------------------------------------------
#
# Negotiate Kerberos and NTLM authentication
#----
##auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth --ntlm /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp --kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s "HTTP/al-sgw002.abs.locol@abs.locol"
##auth_param negotiate children 200 startup=50 idle=10
##auth_param negotiate keep_alive off
И оставьте только NTLM
Код: Выделить всё
# Only NTLM authentication
#---
auth_param ntlm program /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 10:01
лог большой получается
Вот что есть
******
GET http://ya.ru/ HTTP/1.1
Accept: image/jpeg, image/gif, image/pjpeg, application/x-ms-application, application/xaml+xml, application/x-ms-xbap, */*
Accept-Language: en-US
User-Agent: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729)
Accept-Encoding: gzip, deflate
Proxy-Connection: Keep-Alive
Proxy-Authorization: NTLM TlRMTVNTUAADAAAAGAAYAIYAAAAYABgAngAAABAAEABYAAAAGAAYAGgAAAAGAAYAgAAAAAAAAAC2AAAABYKIogYBsB0AAAAP4SSU5+MEcqbYze1b5MkfIUsAQQBaAE4ASQBJAFMAQQBhAGYAaQBsAG8AbgB0AHMAZQB2AF8AbQBEAEMAMQDiEh65ByIdFAAAAAAAAAAAAAAAAAAAAADLbM4D7elgvineGvpNRdCbxJTwAbDKQFM=
Host: ya.ru
———-
2016/01/29 15:36:43.160| comm.cc(773) commSetConnTimeout: local=172.16.0.1:3128 remote=172.16.0.32:63072 FD 10 flags=1 timeout 86400
2016/01/29 15:36:43.160| url.cc(386) urlParse: urlParse: Split URL ‘http://ya.ru/’ into proto=’http’, host=’ya.ru’, port=’80’, path=’/’
2016/01/29 15:36:43.160| Address.cc(409) LookupHostIP: Given Non-IP ‘ya.ru’: Name or service not known
2016/01/29 15:36:43.160| client_side.cc(840) clientSetKeepaliveFlag: clientSetKeepaliveFlag: http_ver = 1.1
2016/01/29 15:36:43.160| client_side.cc(842) clientSetKeepaliveFlag: clientSetKeepaliveFlag: method = GET
2016/01/29 15:36:43.160| client_side_request.cc(162) ClientRequestContext: 0x7f16caf70018 ClientRequestContext constructed
2016/01/29 15:36:43.160| client_side_request.cc(1554) doCallouts: Doing calloutContext->hostHeaderVerify()
2016/01/29 15:36:43.160| client_side_request.cc(674) hostHeaderVerify: validate host=ya.ru, port=0, portStr=NULL
2016/01/29 15:36:43.160| client_side_request.cc(688) hostHeaderVerify: validate skipped.
2016/01/29 15:36:43.160| client_side_request.cc(1561) doCallouts: Doing calloutContext->clientAccessCheck()
2016/01/29 15:36:43.160| Checklist.cc(153) preCheck: 0x7f16caf524c8 checking slow rules
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking !Safe_ports
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘Safe_ports’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny CONNECT !SSL_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking CONNECT
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘CONNECT’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘CONNECT’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localhost manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localhost
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localhost’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ NOT found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localhost’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localnet manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localnet
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localnet’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localnet’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=1 async=0 finished=0
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.160| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny manager’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.161| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow GlobalWUSites LocalWUServers’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking GlobalWUSites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘GlobalWUSites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘GlobalWUSites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow prioritysites localnet’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking prioritysites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘prioritysites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘prioritysites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !auth’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking !auth
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘auth’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘auth’ is -1
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=1 finished=0
2016/01/29 15:36:43.161| Checklist.cc(312) matchNode: 0x7f16caf524c8 going async
2016/01/29 15:36:43.161| Checklist.cc(131) asyncInProgress: ACLChecklist::asyncInProgress: 0x7f16caf524c8 async set to 1
2016/01/29 15:36:43.161| AclProxyAuth.cc(144) checkForAsync: checking password via authenticator
2016/01/29 15:36:43.161| Checklist.cc(256) matchNodes: 0x7f16caf524c8 awaiting async operation
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| comm.cc(145) commHandleRead: comm_read_try: FD 9, size 4095, retval 49, errno 0
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| helper.cc(1013) helperStatefulHandleRead: helperStatefulHandleRead: end of reply found
2016/01/29 15:36:43.161| helper.cc(471) helperStatefulReleaseServer: srv-0 flags.reserved = 1
ERROR: NTLM Authentication validating user. Error returned ‘BH NT_STATUS_UNSUCCESSFUL NT_STATUS_UNSUCCESSFUL’
*******
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 10:10
wbinfo -t
стал показывать
al-sgw002:~$ wbinfo -t
checking the trust secret for domain ABS via RPC calls failed
failed to call wbcCheckTrustCredentials: WBC_ERR_WINBIND_NOT_AVAILABLE
Инструкции по настройке интернета на ПК
Перед настройкой убедитесь, что устройство подключено к сети МАДИ либо по кабелю, либо через Wi-Fi. Для выхода в сеть интернет необходимо настроить прокси-сервер.
Для этого выполните следующие действия:
- Откройте Internet Explorer.
- Windows XP: Нажмите на кнопку Cервис (меню сверху), выберете «Свойства обозревателя».
Windows 7 и выше: Нажмите на кнопку Cервис (шестеренка в правом верхнем углу), выберете «Свойства браузера». - В открывшемся окне среди верхних вкладок выберите «Подключения».
- Windows XP: Нажмите на кнопке «Настройка LAN».
Windows 7 и выше: Нажмите на кнопке «Настройка сети». - В открывшемся окне поставьте галочку «Использовать прокси-сервер…», в поле «Адрес» введите 192.168.10.1, в поле «Порт» — 8080.
- Закройте окна нажатием на ОК. Закройте Internet Explorer.
- Запустите браузер и попробуйте воспользоваться интернетом. Если появится окно с предложением ввести имя пользователя и пароль, воспользуйтесь данными, полученными в Управлении информатизации.
Ошибки при работе:
- ОШИБКА Доступ к кэшу запрещен (ERROR Cache access denied)
Неправильно введены логин или пароль.
Решение проблемы:
Обновите страницу и попробуйте ввести данные еще раз. - Не удается получить доступ к сайту
Неправильно настроен прокси-сервер, либо вы не подключены к сети МАДИ.
Решение проблемы:
1) Проверьте настройки прокси-сервера по шагам 1-7.
2) Проверьте подключение по кабелю или Wi-Fi сети.
Hi,
I’ve created an OpenCanary (V0.6.2) install on a Raspberry Pi 3b+ with an Unbuntu 20.4 server version.
Followed the OpenCanary installation recipe listed here:
Install OpenCanary on Raspberry Pi Ubuntu 20.10
by u/derfmcdoogal in homelab
All seems to work fine so far, the ftp login trap works like a charm with GMAIL notification
Before activating the http trap I get the following browser texts when trying a login at 80 port login at the Raspberry IP;
============== Start Text
ERROR
Cache Access Denied.
The following error was encountered while trying to retrieve the URL: b’/’
Cache Access Denied.
Sorry, you are not currently allowed to request b’/’ from this cache until you have authenticated yourself.
Please contact the cache administrator if you have difficulties authenticating yourself.
Generated Sun, 12 Sep 2021 14:04:33 GMT by localhost (squid/3.3.8)
============== Start End
Then I turned both the 80 & 8080 port traps on for http & httpproxy in the .conf file.
For port 80 the NAS login page shows OK now.
However for the 8080 port. browser still shows the above cache error.
The config file parts are below.
Either way, it seems that leaving HTTP 80 Port trap turned Off in the conf file sort of shows it may be a Canary / Fake.
For the 8080 browser notification, i can’t figure out whats wrong there.
Any idea’s? Thanks
The configuration;
cat .opencanary.conf
{
«device.node_id»: «NAS-FileServer»,
«ip.ignorelist»: [ ],
«git.enabled»: false,
«git.port» : 9418,
«ftp.enabled»: true,
«ftp.port»: 21,
«ftp.banner»: «FTP server ready»,
«http.banner»: «Apache/2.2.22 (Ubuntu)»,
«http.enabled»: true,
«http.port»: 80,
«http.skin»: «nasLogin»,
«http.skin.list»: [
{
«desc»: «Plain HTML Login»,
«name»: «basicLogin»
},
{
«desc»: «Synology NAS Login»,
«name»: «nasLogin»
}
],
«httpproxy.enabled» : true,
«httpproxy.port»: 8080,
«httpproxy.skin»: «squid»,
«httproxy.skin.list»: [
{
«desc»: «Squid»,
«name»: «squid»
},
{
«desc»: «Microsoft ISA Server Web Proxy»,
«name»: «ms-isa»
}
],
02.03.17 — 17:50
На сайте npchk.nalog.ru есть возможность проверить контрагентов как гет запросом, так и с помощью вебсервиса.
Пытаюсь подцепить данный вебсервис и выдает ошибку:
При вызове веб-сервиса произошла ошибка. Ошибка HTTP: HTTP Status 407.
.
ERROR Cache Доступ запрещён. При получении URL http://npchk.nalog.ru/FNSNDSCAWS_2 произошла следующая ошибка Доступ к кэшу запрещён. Извините, Вы не можете запросить http://npchk.nalog.ru/FNSNDSCAWS_2 из этого кэша до тех пор, пока не пройдёте аутентификацию. Please contact the cache administrator if you have difficulties authenticating yourself. Создано Thu, 02 Mar 2017 14:43:37 GMT на прокси (squid/3.3.8)
код:
прокси1 = новый ИнтернетПрокси;
прокси1.Установить(«http», «прокси», порт);
прокси1.Пользователь=»проксилогин»;
прокси1.Пароль =»проксипароль»;
Определение = Новый WSОпределения(«http://npchk.nalog.ru/FNSNDSCAWS_2?wsdl»,»проксилогин»,»проксипароль»,прокси1);
Прокси = Новый WSПрокси(Определение, «http://ws.unisoft»;, «FNSNDSCAWS2», «FNSNDSCAWS2_Port»);
Запрос = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2»));
Контрагент = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2_NP»));
ДанныеК = новый запрос;
ДанныеК.Текст =»ВЫБРАТЬ ПЕРВЫЕ 30
| Контрагенты.ИНН,
| Контрагенты.КПП
|ИЗ
| Справочник.Контрагенты КАК Контрагенты
|ГДЕ
| Контрагенты.ИНН <> &ИНН» ;
ДанныеК.УстановитьПараметр(«ИНН»,»»);
ДанныеПоКонтрагентам = ДанныеК.Выполнить().Выгрузить();
Для каждого ДанныеПоКонтрагенту Из ДанныеПоКонтрагентам Цикл
Контрагент.INN = ДанныеПоКонтрагенту.ИНН;
Контрагент.KPP = ДанныеПоКонтрагенту.КПП;
Контрагент.DT = Формат(ТекущаяДата(), «ДФ=dd.MM.yyyy»);
Запрос.NP.Добавить(Контрагент);
КонецЦикла;
РезультатЗапроса = Прокси.NdsRequest2(Запрос);
Для каждого ОтветДляКонтрагента из РезультатЗапроса.NP Цикл
Сообщить(ОтветДляКонтрагента.State);
КонецЦикла;
ошибка возникает при попытке получить РезультатЗапроса.
ошибка 407 — проблемы с прокси, но где его еще указать не понимаю.
при чем это на 8.3, на 8.2 в описании WSОпределения вообще нет возможности передать ИнтернетПрокси
может кто знает в чем ошибка?
4 — 03.03.17 — 12:00
(1) Вроде нет, ИнтернетПрокси я передаю в WSОпределения, а с WSПрокси работаю дальше
(2) Почитал, у меня все настроено уже для второй версии
Вообще раньше делал через Пост-запрос напрямую на сайт, но пару недель как появилась ошибка «Произошла исключительная ситуация (WinHttp.WinHttpRequest): Не удается установить соединение с сервером» при отработке WinHttp.Send(ТекСтрока) хотя сайт работает и настройки Прокси актуальные
- откройте URL.
- ударил F12 (chrome user)
- теперь перейдите в «сеть» в меню ниже.
- нажмите f5, чтобы перезагрузить страницу, чтобы хром записывал все данные, полученные с сервера.
- откройте любой из «полученного файла» и перейдите в «заголовок запроса»,
- передать весь заголовок request.get()
. [Вот изображение, чтобы помочь вам] [1] [1]: http://i.stack.imgur.com/zUEBE.png
Сделайте заголовок следующим образом:
headers = {‘Accept’: ‘*/*’, ‘Accept-Encoding’: ‘gzip, deflate, sdch’, ‘Accept-Language’: ‘en-US, en; q = 0.8’, ‘Cache-Control’: ‘max-age = 0’, ‘Connection’: ‘keep-alive’, ‘Proxy-Authorization’: ‘Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q =’, ‘If-Modified-Since’: ‘Fri, 13 Nov 2015 17:47:23 GMT ‘,’ User-Agent ‘:’ Mozilla/5.0 (X11, Linux x86_64) AppleWebKit/537.36 (KHTML, например, Gecko) Chrome/48.0.2564.116 Safari/537.36 ‘}
Sumit Jha
20 фев. 2016, в 03:44
Поделиться
Есть еще один способ решить эту проблему.
Что вы можете сделать, так это позволить вашему скрипту python использовать прокси-сервер, определенный в переменной среды
Открытый терминал (CTRL + ALT + T)
export http_proxy="http://usr:[email protected]:port"
export https_proxy="https://usr:[email protected]:port"
и удалите прокси-строки из вашего кода
Вот измененный код:
#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup
import urllib.request as req
url = input("Ask user for something")
def santabanta(max_pages,url):
page = 1
while (page <= max_pages):
source_code = requests.get(url)
plain_text = source_code.text
print (plain_text)
soup = BeautifulSoup(plain_text,"lxml")
for link in soup.findAll('a'):
href = link.get('href')
print(href)
page = page + 1
santabanta(1,url)
alphaguy
22 авг. 2016, в 11:16
Поделиться
Ещё вопросы
- 0показывая загрузочный образ php
- 0Селектор атрибутов jQuery в IE
- 1Как заставить функцию выставлять свои объекты и методы-члены, используя RequireJS AMD
- 0Выбрав объект с помощью jQuery после функции изменения, изменил html-структуру элемента, который нужно было выбрать
- 1Что такое «несвязанный префикс» в Android Studio / Java / XML?
- 0Вторая строка повреждена после нескольких вызовов realloc
- 0Независимые куки в разных папках
- 0Управление зависимостями C ++ от нескольких проектов
- 0Проблема, пытаясь предварительно удалить удаление с php и angular
- 0Как я могу хранить отдельное изображение в отдельном поле с одним кодом PHP
- 1Помещение меток в массив с помощью цикла for в Visual Studio C #
- 0Свежие данные MySQL через запрос с использованием Python
- 1Расширение класса, который уже реализует интерфейс
- 1Как наложить изображения в WPF?
- 0Математика: Хранение 11 значений в 1
- 0как удалить разрыв строки между тегом span в HTML
- 0Как создать функцию обновления на nodejs / mongodb?
- 1Удаление nltk стоп-слов из строк csv DataFrame
- 0Как вызвать myScroll.scrollToElement при загрузке страницы
- 0Рабочие иконки шеврона для jQuery UI Accordion
- 0Попытка создать функцию, где я могу искать в моей базе данных и получать результаты поиска. ошибки
- 0Как использовать угловой повтор с ng-grid и щелкнуть мышью?
- 0Изменить прозрачность другой вкладки при наведении курсора на текущую вкладку
- 1Как получить разные цвета для разных диапазонов значений в простых линейных графиках Google?
- 0Настройка программного обеспечения для точек продаж, выполненного с использованием codeigniter
- 0Symfony2 Отдельная грубая форма от контроллера
- 1Как ACCESS_BACKGROUND_LOCATION, представленный в Android Q, влияет на API Geofence?
- 0Непрерывная прокрутка с помощью jquery waypoints
- 0Как наследовать класс A от B при наследовании B от A?
- 0Как я могу разработать мобильное веб-приложение с использованием Visual Studio 2012 и jquery с asp.net MVC
- 1Проблемы при переносе узла с угловым ИЛИ, как создать среднее приложение без использования angular-cli
- 1Использование нескольких регулярных выражений в C # web crawler [duplicate]
- 1Создать пары ключ / значение словаря из списка на основе условия
- 1Уведомление не работает .. вечно жду нить Java
- 0Проверка формы с помощью jquery, когда в форме не существует, ввод с классом ‘error’
- 2Я получаю утечку памяти, когда начинаю переход с общими элементами из элемента утилизатора
- 0Центрировать элемент HTML в WebView
- 1Проверка срока годности может быть обойдена путем изменения системной даты
- 0Как анимировать div слева направо, нажав на ссылку?
- 0Redshift — SQL Left Join не работает с коррелированным подзапросом и агрегированной функцией
- 0JavaScript — Форма отправки всплывающего окна window.open не работает IE / FF
- 0Angular Выбранный по умолчанию не работает с объектом
- 0Показать страницу просмотра с результатами группы из контроллера
- 1Атрибуты limitintlayout в aar не распознаются при сборке
- 0преобразовать строку UTF-8 в Windows-1250 в JavaScript
- 0Qt: joinMulticastGroup для всего интерфейса
- 0Оператор SQL не получает определение переменной
- 1поле ввода события Pygame
- 1получить доступ к банку в проекте из импортированной библиотеки — gradle / android studio
- 0Выводите родные элементы рядом друг с другом, используя jQuery
#macos #firefox #authentication #proxy
#macos #firefox #аутентификация #прокси
Вопрос:
Firefox работал отлично, прежде чем мы обновили его до версии 30.0. Похоже, что новой версии не нравится наша настройка прокси, которая требует от пользователей авторизации в своих рекламных аккаунтах.
В прошлой версии Firefox появлялось всплывающее окно, позволяющее ввести имя пользователя и пароль, что работает идеально. Однако он больше не появляется и выдает мне это сообщение об ошибке.
Была обнаружена следующая ошибка: Доступ к кэшу запрещен. Извините, в настоящее время вам не разрешено запрашивать:
http://www.google.com.au/url ? из этого кэша до тех пор, пока вы не пройдете проверку подлинности.
Я пытаюсь вручную настроить имя пользователя в цепочке ключей и разрешить firefox доступ к нему, но Firefox, похоже, вообще не обращается к этой цепочке ключей.
У кого-нибудь есть проблема с прокси, который нуждается в аутентификации в Firefox30.0? Кто-нибудь знает возможные решения?
Большое спасибо!
Shuopan
обновление для устранения неполадок—————————————— Довольно интересно, что Firefox будет работать в течение 1 минуты после того, как я использую Safari с этимАутентификация прокси. Однако, если я не касаюсь Safari в течение 1 или 2 минут, Firefox перестанет работать и появится аналогичное сообщение об ошибке.
пробовал network.http.use-cache = false, но не работает
Спасибо
Комментарии:
1. Мы считаем, что решение Филиппа полезно. «здравствуйте, это может быть связано с отключением некоторых небезопасных протоколов аутентификации в firefox 30: mozilla.org/en-US/firefox/30.0/releasenotes/#whatsnew вы можете попробовать ввести about:config в адресную строку firefox (подтвердите информационное сообщение, если оно появится) и выполнить поиск предпочтения с именем network.negotiate-auth. разрешить-небезопасный-ntlm-v1. дважды щелкните его и измените его значение на true «. mozilla.org/en-US/firefox/30.0/releasenotes/#whatsnew
Ответ №1:
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
SqUid3 + ntlm (как найти ошибку ?)
Доброе время суток.
Воспользовался серией статей для установки и настройки SQUID + AD.
Но увы где то допустил ошибку.
Прошу помощи в нахождении оной.
Суть такая, Basic работает и пускает пользователей согласно списка групп.
Но если я включаю NTLM, IE упорно спрашивает пароль, а Chrom не спрашивает кто я такой.
С Ubuntu я на вы.
————————————
access.log пишет
TCP_DENIED/407 3980 CONNECT clients4.google.com:443 — HIER_NONE/- text/html
———————————-
testparm
Load smb config files from /etc/samba/smb.conf
rlimit_max: increasing rlimit_max (1024) to minimum Windows limit (16384)
Loaded services file OK.
Server role: ROLE_DOMAIN_MEMBER
Press enter to see a dump of your service definitions
[global]
workgroup = ABS
realm = ABS.LOCOL
interfaces = 172.16.0.0/24
bind interfaces only = Yes
security = ADS
winbind enum users = Yes
winbind enum groups = Yes
winbind use default domain = Yes
winbind nss info = rfc2307
idmap config ABS:range = 10000-80000
idmap config ABS:backend = rid
idmap config *:range = 10000-80000
idmap config * : backend = tdb
———————————-
sudo net ads keytab list
Warning: «kerberos method» must be set to a keytab method to use keytab functions.
Vno Type Principal
3 des-cbc-crc HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 des-cbc-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 arcfour-hmac-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes256-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes128-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
———————
al-sgw002:~$ sudo getent group winbindd_priv
winbindd_priv129:proxy
——————
al-sgw002:~$ sudo ps -aux | grep /usr/sbin/squid3
proxy 3672 0.0 1.2 132124 39432 ? Ss Қаң28 0:16 /usr/sbin/squid3 -N -YC -f /etc/squid3/squid.conf
Прошу наставлений на путь истинный.
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 08:48
# SQUID 3.3.8 Configuration
# ——————————————————————————
#
# OPTIONS FOR AUTHENTICATION
# ——————————————————————————
#
# Negotiate Kerberos and NTLM authentication
#—-
auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth —ntlm /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp —kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s «HTTP/al-sgw002.abs.locol@abs.locol»
auth_param negotiate children 200 startup=50 idle=10
auth_param negotiate keep_alive off
# Only NTLM authentication
#—
auth_param ntlm program /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off
# Basic authentication via ldap for clients not authenticated via kerberos/ntlm
auth_param basic program /usr/lib/squid3/basic_ldap_auth -v 3 -P -R -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «sAMAccountName=%s» -h 172.16.0.32
auth_param basic children 20
auth_param basic realm «DC1 SQUID Proxy Server Basic authentication!»
auth_param basic credentialsttl 2 hours
# ACCESS CONTROLS
# ——————————————————————————
#
# LDAP authorization
external_acl_type memberof ttl=3600 ipv4 %LOGIN /usr/lib/squid3/ext_ldap_group_acl -v 3 -P -R -K -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «(&(objectclass=person)(sAMAccountName=%v)(memberOf:1.2.840.113556.1.4.1941:=cn=%g,OU=internet,OU=Groups,DC=abs,DC=locol))» -h 172.16.0.32
#
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 08:53
У пользователя вот такая ошибка
*************
ERROR
Cache Доступ запрещён.
———————————————————————————
При получении URL http://ya.ru/ произошла следующая ошибка
Доступ к кэшу запрещён.
Извините, Вы не можете запросить http://ya.ru/ из этого кэша до тех пор, пока не пройдёте аутентификацию.
************************************************
-
Алексей Максимов
- Администратор сайта
- Сообщения: 572
- Зарегистрирован: 14 сен 2012 06:50
- Откуда: г.Сыктывкар
- Контактная информация:
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Алексей Максимов » 29 янв 2016 09:06
Вполне возможно что проблема вообще с Kerberos а не с NTLM.
Попробуйте отключить вообще Kerberos используя только NTLM аутентификацию.
Для этого закомментируйте блок:
Код: Выделить всё
# -----------------------------------------------------------------------------
#
# Negotiate Kerberos and NTLM authentication
#----
##auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth --ntlm /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp --kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s "HTTP/al-sgw002.abs.locol@abs.locol"
##auth_param negotiate children 200 startup=50 idle=10
##auth_param negotiate keep_alive off
И оставьте только NTLM
Код: Выделить всё
# Only NTLM authentication
#---
auth_param ntlm program /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 10:01
лог большой получается
Вот что есть
******
GET http://ya.ru/ HTTP/1.1
Accept: image/jpeg, image/gif, image/pjpeg, application/x-ms-application, application/xaml+xml, application/x-ms-xbap, */*
Accept-Language: en-US
User-Agent: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729)
Accept-Encoding: gzip, deflate
Proxy-Connection: Keep-Alive
Proxy-Authorization: NTLM TlRMTVNTUAADAAAAGAAYAIYAAAAYABgAngAAABAAEABYAAAAGAAYAGgAAAAGAAYAgAAAAAAAAAC2AAAABYKIogYBsB0AAAAP4SSU5+MEcqbYze1b5MkfIUsAQQBaAE4ASQBJAFMAQQBhAGYAaQBsAG8AbgB0AHMAZQB2AF8AbQBEAEMAMQDiEh65ByIdFAAAAAAAAAAAAAAAAAAAAADLbM4D7elgvineGvpNRdCbxJTwAbDKQFM=
Host: ya.ru
———-
2016/01/29 15:36:43.160| comm.cc(773) commSetConnTimeout: local=172.16.0.1:3128 remote=172.16.0.32:63072 FD 10 flags=1 timeout 86400
2016/01/29 15:36:43.160| url.cc(386) urlParse: urlParse: Split URL ‘http://ya.ru/’ into proto=’http’, host=’ya.ru’, port=’80’, path=’/’
2016/01/29 15:36:43.160| Address.cc(409) LookupHostIP: Given Non-IP ‘ya.ru’: Name or service not known
2016/01/29 15:36:43.160| client_side.cc(840) clientSetKeepaliveFlag: clientSetKeepaliveFlag: http_ver = 1.1
2016/01/29 15:36:43.160| client_side.cc(842) clientSetKeepaliveFlag: clientSetKeepaliveFlag: method = GET
2016/01/29 15:36:43.160| client_side_request.cc(162) ClientRequestContext: 0x7f16caf70018 ClientRequestContext constructed
2016/01/29 15:36:43.160| client_side_request.cc(1554) doCallouts: Doing calloutContext->hostHeaderVerify()
2016/01/29 15:36:43.160| client_side_request.cc(674) hostHeaderVerify: validate host=ya.ru, port=0, portStr=NULL
2016/01/29 15:36:43.160| client_side_request.cc(688) hostHeaderVerify: validate skipped.
2016/01/29 15:36:43.160| client_side_request.cc(1561) doCallouts: Doing calloutContext->clientAccessCheck()
2016/01/29 15:36:43.160| Checklist.cc(153) preCheck: 0x7f16caf524c8 checking slow rules
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking !Safe_ports
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘Safe_ports’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny CONNECT !SSL_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking CONNECT
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘CONNECT’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘CONNECT’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localhost manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localhost
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localhost’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ NOT found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localhost’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localnet manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localnet
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localnet’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localnet’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=1 async=0 finished=0
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.160| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny manager’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.161| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow GlobalWUSites LocalWUServers’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking GlobalWUSites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘GlobalWUSites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘GlobalWUSites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow prioritysites localnet’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking prioritysites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘prioritysites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘prioritysites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !auth’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking !auth
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘auth’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘auth’ is -1
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=1 finished=0
2016/01/29 15:36:43.161| Checklist.cc(312) matchNode: 0x7f16caf524c8 going async
2016/01/29 15:36:43.161| Checklist.cc(131) asyncInProgress: ACLChecklist::asyncInProgress: 0x7f16caf524c8 async set to 1
2016/01/29 15:36:43.161| AclProxyAuth.cc(144) checkForAsync: checking password via authenticator
2016/01/29 15:36:43.161| Checklist.cc(256) matchNodes: 0x7f16caf524c8 awaiting async operation
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| comm.cc(145) commHandleRead: comm_read_try: FD 9, size 4095, retval 49, errno 0
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| helper.cc(1013) helperStatefulHandleRead: helperStatefulHandleRead: end of reply found
2016/01/29 15:36:43.161| helper.cc(471) helperStatefulReleaseServer: srv-0 flags.reserved = 1
ERROR: NTLM Authentication validating user. Error returned ‘BH NT_STATUS_UNSUCCESSFUL NT_STATUS_UNSUCCESSFUL’
*******
-
Dekabryi
- Любопытный
- Сообщения: 15
- Зарегистрирован: 29 янв 2016 07:56
Re: SqUid3 + ntlm (как найти ошибку ?)
Сообщение
Dekabryi » 29 янв 2016 10:10
wbinfo -t
стал показывать
al-sgw002:~$ wbinfo -t
checking the trust secret for domain ABS via RPC calls failed
failed to call wbcCheckTrustCredentials: WBC_ERR_WINBIND_NOT_AVAILABLE