📜  应用层

📅  最后修改于: 2020-12-06 10:34:55             🧑  作者: Mango


Web应用程序和Web服务器对于我们的在线状态至关重要,观察到的针对它们的攻击构成了Internet上尝试的攻击总数的70%以上。这些攻击试图将受信任的网站转换为恶意网站。由于这个原因,Web服务器和Web应用程序笔测试起着重要的作用。

Web服务器的脚印

为什么我们需要考虑Web服务器的安全性?这是因为随着电子商务行业的快速发展,攻击者的主要目标是Web服务器。对于Web服务器渗透测试,我们必须了解Web服务器,其托管软件和操作系统以及在其上运行的应用程序。收集有关Web服务器的此类信息称为Web服务器的足迹。

在接下来的部分中,我们将讨论用于Web服务器占用资源的不同方法。

Web服务器足迹的方法

Web服务器是专用于处理请求和提供响应的服务器软件或硬件。这是在进行Web服务器的渗透测试时,一个五分之一学期要重点关注的关键区域。

现在让我们讨论一些用Python实现的方法,可以执行这些方法以占用Web服务器的空间-

测试HTTP方法的可用性

渗透测试人员的一个很好的做法是从列出各种可用的HTTP方法开始。以下是Python脚本,借助它我们可以连接到目标Web服务器并枚举可用的HTTP方法-

首先,我们需要导入请求库-

import requests

导入请求库后,创建将要发送的HTTP方法数组。我们将使用“ GET”,“ POST”,“ PUT”,“ DELETE”,“ OPTIONS”和非标准方法“ TEST”等标准方法来检查Web服务器如何处理意外输入。

method_list = ['GET', 'POST', 'PUT', 'DELETE', 'OPTIONS', 'TRACE','TEST']

下面的代码行是脚本的主循环,它将把HTTP数据包发送到Web服务器并打印方法和状态代码。

for method in method_list:
   req = requests.request(method, 'Enter the URL’)
   print (method, req.status_code, req.reason)

下一行将通过发送TRACE方法来测试跨站点跟踪(XST)的可能性。

if method == 'TRACE' and 'TRACE / HTTP/1.1' in req.text:
   print ('Cross Site Tracing(XST) is possible')

在特定的Web服务器上运行上述脚本后,对于Web服务器接受的特定方法,我们将获得200 OK响应。如果Web服务器明确拒绝该方法,我们将收到403禁止响应。一旦发送用于测试跨站点跟踪(XST)的TRACE方法,我们将从Web服务器收到405不允许的响应,否则将收到消息“可能进行跨站点跟踪(XST)”

通过检查HTTP标头进行打印

在Web服务器的请求和响应中都可以找到HTTP标头。它们还携带有关服务器的非常重要的信息。这就是为什么渗透测试人员总是对通过HTTP标头解析信息感兴趣的原因。以下是用于获取有关Web服务器头信息的Python脚本-

首先,让我们导入请求库-

import requests

我们需要将GET请求发送到Web服务器。下面的代码行通过请求库发出一个简单的GET请求。

request = requests.get('enter the URL')

接下来,我们将生成您需要其相关信息的标题列表。

header_list = [
   'Server', 'Date', 'Via', 'X-Powered-By', 'X-Country-Code', ‘Connection’, ‘Content-Length’]

接下来是try和except块。

for header in header_list:
   try:
      result = request.header_list[header]
      print ('%s: %s' % (header, result))
   except Exception as err:
      print ('%s: No Details Found' % header)

在特定的Web服务器上运行上述脚本后,我们将获得有关标头列表中提供的标头的信息。如果没有有关特定标头的信息,则它将显示消息“未找到详细信息”。您也可以从链接— https://www.tutorialspoint.com/http/http_header_fields.htm上了解有关HTTP_header字段的更多信息。

测试不安全的Web服务器配置

我们可以使用HTTP标头信息来测试不安全的Web服务器配置。在以下Python脚本中,我们将使用try / except块来测试不安全的Web服务器标头,以获取保存在文本文件名website.txt中的URL数量-

import requests
urls = open("websites.txt", "r")

for url in urls:
   url = url.strip()
   req = requests.get(url)
   print (url, 'report:')
   
   try:
      protection_xss = req.headers['X-XSS-Protection']
      if protection_xss != '1; mode = block':
      print ('X-XSS-Protection not set properly, it may be possible:', protection_xss)
   except:
      print ('X-XSS-Protection not set, it may be possible')
      
   try:
      options_content_type = req.headers['X-Content-Type-Options']
      if options_content_type != 'nosniff':
      print ('X-Content-Type-Options not set properly:', options_content_type)
   except:
      print ('X-Content-Type-Options not set')
      
   try:
      transport_security = req.headers['Strict-Transport-Security']
   except:
      print ('HSTS header not set properly, Man in the middle attacks is possible')
      
   try:
      content_security = req.headers['Content-Security-Policy']
      print ('Content-Security-Policy set:', content_security)
   except:
      print ('Content-Security-Policy missing')

Web应用程序的足迹

在上一节中,我们讨论了Web服务器的足迹。同样,从渗透率测试仪的角度来看,Web应用程序的覆盖区也被认为很重要。

在接下来的部分中,我们将了解用于Web应用程序足迹的不同方法。

Web应用程序足迹的方法

Web应用程序是一个客户端服务器程序,由客户端在Web服务器中运行。这是pentester在进行Web应用程序渗透测试时要重点关注的另一个关键领域。

现在让我们讨论用Python实现的不同方法,这些方法可用于对Web应用程序进行封装-

使用解析器BeautifulSoup收集信息

假设我们要从网页中收集所有超链接;我们可以使用一个名为BeautifulSoup的解析器。解析器是一个Python库,用于从HTML和XML文件中提取数据。它可以与urlib一起使用,因为它需要输入(文档或url)来创建汤对象,并且它本身无法获取网页。

首先,让我们导入必要的软件包。我们将导入urlib和BeautifulSoup 。请记住,在导入BeautifulSoup之前,我们需要先安装它。

import urllib
from bs4 import BeautifulSoup

下面给出的Python脚本将收集网页标题和超链接-

现在,我们需要一个变量,该变量可以存储网站的URL。在这里,我们将使用一个名为“ url”的变量。我们还将使用page.read()函数,该函数可以存储网页并将网页分配给变量html_page

url = raw_input("Enter the URL ")
page = urllib.urlopen(url)
html_page = page.read()

html_page将被分配为创建汤对象的输入。

soup_object = BeautifulSoup(html_page)

接下来的两行将分别打印带标签和不带标签的标题名称。

print soup_object.title
print soup_object.title.text

下面显示的代码行将保存所有超链接。

for link in soup_object.find_all('a'):
   print(link.get('href'))

横幅抓

标语就像一条短信,其中包含有关服务器的信息,标语抓取是获取标语本身提供的信息的过程。现在,我们需要知道如何生成此横幅。它由发送的数据包的报头生成。并且,当客户端尝试连接到端口时,服务器会响应,因为标头包含有关服务器的信息。

以下Python脚本使用套接字编程帮助抓住了旗帜-

import socket

s = socket.socket(socket.AF_INET, socket.SOCK_RAW, socket. htons(0x0800))

targethost = str(raw_input("Enter the host name: "))
targetport = int(raw_input("Enter Port: "))
s.connect((targethost,targetport))

def garb(s:)
   try:
      s.send('GET HTTP/1.1 \r\n')
      ret = sock.recv(1024)
      print ('[+]' + str(ret))
      return
   except Exception as error:
      print ('[-]' Not information grabbed:' + str(error))
      return

运行上述脚本后,我们将获得与上一节中类似的有关标头的信息,就像我们从HTTP标头的占位符的Python脚本中获得的一样。